[Paroles d’experts] Le no-code: quels enjeux pour les DSI ?

Cet article a été rédigé par Invenis, avant l’acquisition de la société par AdvanThink

Face à une pénurie de profils IT, le no-code apparait comme une alternative intéressante pour répondre aux enjeux technologiques. Quels sont les avantages à passer au no-code ? Le no-code n’est-il réservé qu’aux profils métiers ?

Ce mois-ci nous avons eu la chance d’échanger avec Pierre Launay, Président du Syndicat Français des Professionnels du NoCode (SFPN) et CEO du groupe Cube.fr.

Pouvez-vous nous définir ce qu’est le no-code ? En quoi est-ce différent du low-code ?

La différence tient dans l’aspect visuel du no-code. Au lieu d’écrire des lignes de code, on va programmer visuellement, via du « drag and drop », du « glisser-déposer » pour créer des outils métiers, comme des applications, des sites web… On peut ainsi créer des environnements complets, sans coder.

Par extension, le low-code est également un langage de programmation, qui, au contraire du no-code, permet de rajouter du code traditionnel dans un environnement en no-code, si besoin. 

En granularité, on aura donc le code, le low-code et le no-code.
Pour compléter mes propos, je dirais que le no-code et le low-code proposent une nouvelle façon de développer. Il y a toujours des bases de données, des API, un environnement full-stack… mais la méthode est différente car c’est plus visuel. 

D’ailleurs, il n’y a pas d’effet magique dans le no-code. L’aspect « magique » du no-code est le pire message qu’on ait pu envoyer au début, car cela a provoqué une levée de boucliers de la part des développeurs ! Alors même qu’ils ont aussi de nombreux avantages à utiliser des outils en no-code.

Qui sont les utilisateurs de ces outils no-code ? Selon moi, on peut les classifier en deux catégories :

  • Les « citizen utilisateurs » : ils ne viennent pas de la Tech, ne savent pas ce qu’est un « Front », un « Back » et trouvent de l’intérêt dans les outils no-code car ils leur font oublier l’aspect technique. Ils vont ainsi, sans le savoir, commencer à coder des applications pour leur besoin métier. Parfois de petites applications pour répondre à un besoin spécifique, pas forcément une application scalable, mais qui fonctionne.
  • Les profils « développeurs » : 

Parmi eux, les développeurs traditionnels, qui voient dans le no-code et le low-code une opportunité d’aller plus vite sur certains aspects, par exemple pour créer des interfaces templatisées dans lesquelles leur valeur ajoutée est limitée, et vont garder leur casquette de développeur pour les aspects à plus forte valeur ajoutée (par exemple sur l’algorithmie).

Et enfin, les « Product Builders », qui sont un nouveau profil, entre le « citizen développeur » et le développeur traditionnel. Ils forment un pont entre ces deux structures et jouent un rôle hybride afin de traiter tous les cas d’usage qui se prêtent au low-code et au no-code, au service des métiers.

D’ailleurs, le profil de « Product Builder No-Code » a été reconnu fin 2023 par France Compétences comme un métier émergent en particulière évolution. Nous avons œuvré au sein du SFPN (Syndicat Français des Professionnels du NoCode) à la reconnaissance de ce métier, que l’on rencontre de plus en plus et qui permet aux entreprises de mieux voir une réalité concrète.

Le Product Builder représente un réel besoin des entreprises et synchronise un nombre important de compétences : communiquer, « builder », recueillir les besoins, analyser la sécurité des outils…  La reconnaissance de ce métier le rend désormais concret et va permettre aux entreprises de mieux cibler leurs besoins en termes de compétences.

Gartner prévoit que d’ici 2025, 70% des applications utilisées par les entreprises seront développées en no-code. 

Le no-code, est-ce nouveau ?  Pourquoi le développement d’applications no-code s’est-il accéléré depuis quelques années ?

Le no-code n’est pas nouveau, le low-code non plus. 

En revanche, c’est une évolution technologique qui est vraiment en train de se cristalliser depuis 4 à 5 ans dans son appellation marketing. 

Les principaux outils, les outils les plus mûrs, ont aujourd’hui environ une dizaine d’années de maturité.

Entre 2010 et 2015, les outils américains ont émergé et ont pu consolider une belle avance sur le marché grâce à de nombreuses levées de fonds. 

C’est le cas par exemple de Airtable ou encore Bubble, qui a par exemple d’abord levé plus de 6 millions en 2019 puis 100 millions de dollars en 2021. Ces financements ont permis à ces entreprises de consolider leur présence sur le marché, construire des produits robustes et communiquer dessus. Ils ont ainsi pris une avance considérable, se sont exportés et ont ainsi créé un marché du no-code.  

Le marché français, quant à lui, est dynamique depuis 2015, et l’essor des solutions no-code françaises s’est accéléré depuis 2020. 

Plusieurs facteurs peuvent expliquer cet intérêt croissant :

  • Tout d’abord le Covid. Durant la période de confinement, de nombreux professionnels se sont retrouvés à travailler sur des projets jusque-là jamais adressés auparavant, avec un sentiment d’urgence. Les outils no-code ont représenté une opportunité de pouvoir délivrer de nouvelles applications, dans un contexte de ressources limitées.
  • Des dizaines d’années de levées de fonds, qui permettent aujourd’hui d’avoir sur le marché des solutions robustes et fiables. Et donc de démocratiser ces solutions.

Cela a permis une adoption des outils no-code dans les organisations et une démocratisation du terme de no-code. Désormais, nous le terme est connu et les outils rentrent petit à petit dans les organisations !

Et cela se comprend, car le no-code arrive avec une promesse de taille : la digitalisation accessible, à moindre coût et avec des ressources limitées. 

Quand on sait que seuls 0,3% de la population sait coder dans le monde, le no-code vient réduire cette barrière à l’entrée de la digitalisation et répond à ce besoin concret de technologies, dans un monde dans lequel elle est désormais fondamentale. 

Le no-code vient ouvrir également la palette d’opportunités pour se digitaliser. 

Pourquoi payer pour des outils traditionnels dont je n’utilise que 10% des fonctionnalités alors que je peux créer mon outil sur-mesure simplement en no-code ?
En construisant sa propre solution en no-code, on customise le produit idéal pour son organisation, tout en réduisant les coûts. La promesse est intéressante.

Il y a cependant une échelle de temps à prendre en compte dans l’établissement de ce nouveau marché des outils no-code. 

En effet, comme pour toutes les technologies, il va falloir dépasser les étapes des mise en place de « Proof of Concept » (POC), de « Minimum Viable Product » (MVP) pour passer à l’échelle et industrialiser ces produits no-code. Dans un marché dans lequel le « legacy » est important, dans lequel le nombre d’outils est important, le no-code doit trouver sa place et la prochaine étape du développement d’outils no-code se trouve ici : dépasser les phases de test et créer un eldorado !

Quels sont les principaux avantages d’un outil no-code dans une organisation ? Que répondez-vous à des organisations qui seraient réticentes à passer au no-code ?

Le principal avantage du no-code, c’est la rapidité de développement.  Avec du no-code, on fait 90% du travail en 10% du temps d’un développement traditionnel. 

L’effet mécanique de ce gain de temps est la rationalisation des ressources. On l’a vu tout à l’heure, les profils techniques se font rares et aujourd’hui, mettre en place des projets digitaux nécessite une dépendance à la DSI sur de nombreux sujets.

Le no-code vient changer ce paradigme et offre une possibilité de libérer du temps à l’IT en déployant des cas d’usage qui ne viennent pas remplir le backlog de la DSI. 

Ce mouvement vers une plus grande autonomie des métiers est inéluctable. 

En effet, leurs besoins en projets et outils digitaux explosent, continuant d’alimenter l’engorgement de l’IT. Cela ralentit la digitalisation des entreprises alors même qu’elle est nécessaire.

A l’inverse, le no-code, le low-code et j’ajouterais l’Intelligence Artificielle rendent accessible la possibilité de « faire », de créer des produits digitaux en toute autonomie et constituent ainsi une réponse pour désengorger l’IT.

Bien sûr, il y a des réticences à l’usage du no-code. Celles dont on me fait part régulièrement concernent souvent la peur de perdre le contrôle dans la gestion des outils développés en interne, et par ricochet, la peur de voir augmenter le Shadow IT.

Récemment, j’ai assisté à une conférence dans laquelle Yann Barthelemy, Responsable de pôle SI à la Société Générale expliquait qu’ils avaient dû interdire l’usage de Chat GPT pour éviter l’absence de contrôle sur l’outil. Selon lui, pour mieux accueillir et gérer cette révolution du no-code, il faut mieux cadrer et organiser les produits digitaux en entreprise. Comment gérer ces applications ? Comment s’assurer de ne pas réduire la dette technique d’un côté pour en remettre ailleurs ? 

Parallèlement à cela, deux autres questions deviennent extrêmement importantes : la question de la responsabilisation (qui est responsable de ce produit et de sa maintenance ?) ainsi que la pérennisation de ces produits (que devient ce produit en cas de départ d’un collaborateur ?).

Ces nouveaux enjeux sont identifiés par les grandes entreprises. Et c’est une réalité, cette révolution technologique pousse les DSI à se réorganiser pour mieux encadrer ces nouveaux produits et la tentation du Shadow IT qui va avec. 

Je crois profondément que les DSI vont peu à peu se réinventer et vont jouer un rôle « d’encadreur » des produits digitaux dans les entreprises. Et à terme, les entreprises les plus compétitives seront celles qui réussiront à encadrer les besoins et les réponses : qui fait quoi, et avec quels outils. 

On parle souvent du no-code comme des outils permettant à des profils non-techniques de s’emparer de sujets techniques.

Je ne sais pas si l’on peut dire que le no-code représente une révolution pour les profils techniques. Mais ce qui est sûr c’est que de nombreux profils techniques peuvent « faire » différemment grâce au no-code et aux perspectives qu’il offre. 

Le no-code permet d’avoir une approche modulaire, en mixant les approches entre des développements en code et en no-code. Cela offre de nombreux avantages pour des profils de développeurs, comme gagner du temps et se consacrer à des développements plus complexes qui requièrent de l’algorithmie et sur lesquels leur valeur ajoutée est plus importante, ou encore en s’affranchissant de maintenir du code pour certains projets.

Le no-code représente aussi une nouvelle façon de travailler et de nouveaux outils pour ces profils plus rares. C’est une opportunité aussi d’ouvrir leur champ des possibles et de gagner en compétitivité sur leur métier en leur permettant de mieux gérer leurs compétences et maîtriser un environnement plus large.

Quels sont les atouts actuels de l’écosystème Français du no-code ?

L’écosystème Français du no-code est constitué principalement de deux associations :

  • Le Syndicat Français des Professionnels du No Code (SFPN), dont je suis le Président, qui a été créé il y a trois ans et a pour vocation de rassembler tous les acteurs professionnels du No Code, promouvoir la filière et travailler sur des projets transverses de valorisation du secteur. 

Nous travaillons par exemple sur le projet de création d’une norme pour harmoniser les pratiques et les standards du no-code avec l’AFNOR en 2024. Le Syndicat organise également le No Code Summit, qui se tiendra cette année les 16 et 17 octobre à Station F, qui rassemble tout l’écosystème du no-code. Nous organisons aussi de nombreux événements partout en France, afin de fédérer les professionnels du no-code.

  • La communauté No-Code France (NCF), une communauté qui rassemble à peu près 10 000 personnes, professionnels ou non du no-code et qui vise à évangéliser le no-code au quotidien.

Et toutes les belles solutions de l’écosystème, bien sûr !

On pousse ces technologies, car elles peuvent répondre aux problématiques et aux besoins des entreprises. Et dans quelques années, je pressens que les outils no-code seront aussi diffusés dans les entreprises que la suite Office !

Pierre Launay est CEO / Co-fondateur du groupe cube.fr et Président du Syndicat Français des Professionnels du NoCode (SFPN), organisateur du NoCode Summit.

Le groupe Cube comprend 2 activités coeur : 

  • Une première activité de développement d’application externe et interne réalisé sur des technologies NoCode/LowCode à destination des startups, scale-up et grandes entreprises (cube.fr) ; 
  • Une seconde activité en tant qu’organisme de formation reconnu par l’Etat, proposant des formations B to C et B to B, en format bootcamp intensif et au travers de cours en e-learning  (ecole.cube.fr)

Photo de Robs Diego PH sur Unsplash

Paroles d’experts – Données, autonomie et confiance : quelles réponses pour nos industries de défense ?

Cet article a été rédigé par Invenis, avant l’acquisition de la société par AdvanThink

Découvrez dans cette interview de Jean-Luc Angibault, les enjeux et besoins des acteurs de la défense en matière de traitement des données

Jean-Luc Angibault est Président du Data Intelligence Cluster du GICAT et fondateur de Wintellis.

Paroles d’experts #8 – Données, autonomie et confiance : quelles réponses pour la défense ? – YouTube

Invenis – Bonjour Jean-Luc Angibault, 
Vous êtes Président fondateur de la société Wintellis, une société de conseil en intelligence stratégique. Vous êtes également le Président du Data Intelligence Cluster, un des clusters du GICAT. Pouvez-vous nous présenter le GICAT ainsi que le Data Intelligence Cluster ? 

Le GICAT est un groupement professionnel qui regroupe environ 300 entreprises. Créé en 1978, il était centré au départ uniquement sur les problématiques de défense terrestre et aéroterrestre. Depuis quelques années, il a intégré la dimension sécuritaire. 

Au sein du GICAT, nous regroupons une trentaine d’entreprises dédiées à ce que j’appelle, l’intelligence de la donnée. Plus particulièrement, les outils dédiés au renseignement et au Big Data, ce qui nous rattache à l’écosystème défense et sécurité.  

Invenis – La donnée dans le secteur de la défense et de la sécurité englobe de nombreux enjeux. On parle aussi beaucoup de souveraineté numérique. 
En quoi est-ce que le GICAT et le Data Intelligence Cluster permettent de promouvoir cet enjeu ?

La souveraineté numérique est un enjeu afin de conserver notre indépendance, notre identité. Aujourd’hui tout cela a été rehaussé. D’abord dans le domaine de la sécurité et de la défense pour des raisons de confidentialité, d’autonomie d’appréciation et de décision. La Covid n’a fait qu’accroître tout cela car il y a eu une prise de conscience collective, des autorités mais aussi des citoyens. La domination quasi-totale des solutions outre-Atlantique a provoqué une prise de conscience de ce manque. 

Bâtir la souveraineté de la donnée, au niveau national ou européen, est fondamental parce qu’elle structure notre vie tout simplement. La France est assez novatrice dans ce domaine-là. À la fois pour la protection des individus avec la CNIL et le RGPD. Au niveau collectif, on comprend que la donnée est une richesse absolument incroyable car avec le numérique on peut donner à la data une valeur et construire un ensemble de services.

Invenis – Pouvez-vous nous dire quels sont les besoin actuels et futurs dans le traitement de la donnée des industries du secteur de la défense en France ? 

Les besoins data sont spécifiques puisqu’on est dans le secteur de la défense et de la sûreté. Le premier c’est bien sûr la confidentialité des informations pour des raisons évidentes. La confidentialité est intrinsèque mais son accès aussi doit être étagé. En fonction du niveau de responsabilité, l’accès à l’information sécurisée n’est pas le même. On parle du besoin d’en connaître dans les milieux spécialisés. 
Le deuxième besoin c’est l’accessibilité bien sûr. Cette donnée doit être disponible en permanence. Enfin, dans son traitement, la volumétrie étant débordante et exponentielle, on a besoin de solutions qui permettent d’automatiser à la fois la collecte, la préparation et l’exploitation de ces données. 

Invenis – Nous sommes très heureux qu’Invenis rejoigne officiellement, en tant que solution souveraine de Data Preparation, le GICAT et plus particulièrement le Data Intelligence Cluster. En quoi l’arrivée d’Invenis au sein de ce cluster est-elle pertinente ?  

L’objectif du cluster est d’assembler les briques pertinentes pour proposer une offre globale cohérente par rapport aux besoins du secteur. Nous avons identifié la valorisation apportée par Invenis dans cette offre globale.

Invenis a cette particularité dans la Data Preparation donc dans la mise en forme et la qualité de l’information qui est donnée ensuite à l’exploitation. C’est un nœud particulier qu’Invenis couvre. Aujourd’hui, on n’a pas cette capacité au niveau que le fournit Invenis. Cela donne des solutions extrêmement vivantes et utiles pour les analystes parce qu’on inverse Pareto. C’est-à-dire on passe du temps avec l’intelligence humaine à valoriser cette information mise en qualité, rendue accessible et tout cela en mode automatique. Le facteur temps état extrêmement important par rapport au volume.

Pour aller plus loin :

Découvrez l’article Invenis rejoint le Data Intelligence Cluster du GICAT

Invenis GICAT

[Paroles d’experts] Mettre en qualité des données en volume : un défi d’hier, d’aujourd’hui et de demain

Cet article a été rédigé par Invenis, avant l’acquisition de la société par AdvanThink

Les enjeux techniques sont aujourd’hui très importants et les DSI, mécaniquement, sont sous pression.
La capacité d’exploitation des données, toutes les données, longtemps stockées dans des bases de données froides, fait aujourd’hui la différence et représente un enjeu de taille.

Ce mois-ci, nous avons eu le plaisir d’échanger avec Thomas Petit, Directeur des Systèmes d’Information et membre de l’Association des DSI & CDO et de l’Agora des DSI/ CDO.

Invenis – En ce début d’année 2024, quel est aujourd’hui d’après vous le plus gros challenge des DSI en termes d’exploitation de la donnée ? Et quel sera le plus gros challenge de demain ?

Le premier enjeu vise à savoir traiter le volume considérable de données disponibles. L’explosion de l’usage du Cloud depuis dix ans a rendu possible le stockage de données, mais leur exploitation reste toujours un défi de taille pour les DSI.

Aujourd’hui, on est capable de stocker des données, pas forcément structurées, mais on n’arrive pas encore à rendre cohérent ce stockage de données pour en tirer des informations. 

Depuis quelques années, nous produisons et stockons des volumes de données considérables. Par exemple, nous devrions produire l’année prochaine 180 zettaoctets de données ! C’est colossal !

Aujourd’hui ces données ne sont peu ou pas traitées, même par des acteurs dont la maturité Data est avancée. Celles qui le font, analysent une partie des données et le font de façon « mono-canal » et sur des données particulièrement normées.

Pourtant, la variété des données stockées a aussi explosé et aujourd’hui, des informations précieuses se trouvent dans d’autres données (e-mails, appels téléphoniques, réseaux sociaux…). La richesse de ces données se déploiera lorsque l’on sera vraiment capable de croiser ces différents types de données.  Ce chantier de traiter, croiser des données de tout volume, de toute nature est le premier grand chantier des DSI.

Et dans les faits, c’est effectivement extrêmement difficile !

Le traitement et l’exploitation des données ne sont pas le cœur de métier de la plupart des entreprises. Pour ces entreprises-là, externaliser cette compétence semble difficile tant l’usage de la donnée est lié à la connaissance métier de chaque acteur.  D’où l’émergence depuis quelques années du rôle de CDO, le Chief Data Officer, dont le rôle est de recenser (car elles peuvent être dans des bases différentes, sous des formats différents, parfois les équipes n’en ont pas connaissance !) catégoriser, structurer les données disponibles de l’entreprise. Le CDO va pouvoir cartographier ces données pour coordonner les actions et visualiser l’écosystème de données.

Ensuite, il faudra qu’il travaille avec les équipes métiers et IT pour voir comment transformer ces informations pour en en faire quelque chose d’intéressant, c’est-à-dire, comment tirer de la valeur de ces données.

Je pense donc que l’enjeu des cinq prochaines années ne sera pas une révolution mais un démarrage : les outils sont là, l’Intelligence Artificielle est là mais il faudra exploiter ses données ou prendre le risque de disparaitre.

Ceux qui ont un train d’avance sur ces sujets-là pourront proposer des services dont d’autres n’ont même pas encore conscience. Pour cela, il faudra également réussir l’industrialisation de ces projets Data et être capable de gérer du temps réel.

Imaginons un monde dans lequel on peut faire de la recommandation hyper-contextualisée en couplant toutes sortes de données : données de ventes, données comportementales, données en Open Data type météo, données socio-économiques… À la fin, on pourra définir l’ensemble des critères qui poussent à l’achat à un instant T, être très pertinents en termes de messages et d’offres et maximiser ses ventes.

Cela peut faire un peu peur, mais c’est aussi un gage de compréhension des besoins des consommateurs. Ceux qui prendront ce virage pourront se différencier de façon extrêmement forte et c’est à mon sens fondamental.

Invenis – Selon Gartner, 25% des données critiques exploitées par les entreprises sont erronées, faute de Data Quality.

Quelles actions concrètes menez-vous en tant que DSI pour surpasser ce problème de Data Quality ?

Pourquoi est-ce si difficile pour les organisations de mettre en qualité leurs données ?

Nous l’avons vu précédemment : la quantité des données explose.

Et c’est un problème de gérer ce volume et de le gérer en temps réel.
Aujourd’hui, on empile des données dans des bases de données, sans les trier, les filtrer, les préparer au fur et à mesure. Et une fois que nous sommes face à ces milliards de données, il est difficile de savoir par où commencer et comment mettre en qualité ces données.
Parfois même, il est impossible de les mettre en qualité.

Par exemple, si le problème de qualité est lié à la façon dont sont collectées les données, c’est quasiment impossible de retraiter ces informations. Prenons l’exemple de données qui seraient collectées par des humains. S’il manque des informations, comment retrouver l’information vérifiée, 2 ans après sa collecte ? Si la donnée a été mal normée, comment la normaliser après autant de temps ?

En parallèle, toutes les données qu’on a collectées il y a 10 ans ne sont pas forcément utiles aujourd’hui et on ne peut pas toujours reconstituer de la donnée créée il y a quelques années.

Pour mettre en qualité des données collectées et stockées il y a de cela des années, le chantier est colossal… Et souvent, les organisations ne savent pas comment s’y prendre.

En revanche, on peut préparer l’avenir et le temps présent en proposant des aides à la saisie, ou en travaillant avec de l’Intelligence Artificielle pour corriger les données au moment où elles sont saisies. La préparation des données en temps réel, au moment de la collecte permettrait de de mieux qualifier les données et lutter contre ce problème de Data Quality à la racine.

Mais même l’IA n’est pas infaillible aujourd’hui !

Il faut donc cadrer au maximum les informations dès lors qu’elles rentrent dans les bases de données. Les capteurs d’IoT (Internet of Things) le font très bien par exemple : les données sont formatées et qualifiées en amont de manière très fines en vue de leur utilisation future.

Une des solutions est donc normaliser cette collecte, et encore plus lorsqu’elle implique une intervention Homme-Machine.

L’industrialisation des projets Data fait encore figure d’exception dans les organisations. Pourquoi n’arrive-t-on pas encore à industrialiser les projets ? Est-ce un problème et comment y remédier ?

Pour bien comprendre de quoi il s’agit, je vous propose qu’on se pose cette question : que signifie « industrialiser » un projet Data ?

Si l’on prend l’exemple de la production de voitures chez Ford, il s’est agi de découper l’ensemble des tâches en opérations unitaires facilement réplicables.
La notion de réplicabilité est fondamentale quand on parle d’industrialisation.

Pour industrialiser, il faut être capable de répliquer, de recommencer les opérations, sans changer à chaque fois le moule en entrée et en sortie.

Pour l’exploitation de la Data, c’est pareil. Pour industrialiser un projet Data, il faut que le moule d’entrée soit le plus homogène possible, de même pour le moule de sortie.

Et c’est là que les problèmes se posent.

Le volume et la diversité des données rendent très compliquée l’industrialisation de la récupération de toutes ces informations. Dans des structures de taille moyenne, on peut avoir parfois jusqu’à 20 Systèmes d’Informations, chacun apportant des types de données différents (CRM, comptabilité, logistique…), tous d’éditeurs différents, exploités par des gens différents, collectées différemment.

Parfois, il faudra recréer des systèmes d’information et ce sont des projets lourds.

On peut bien sûr externaliser la production d’un projet et d’un écosystème Data, mais ce sont des projets longs et chers, tant en termes de ressources humaines que de ressources techniques (et le cloud, ça coûte cher !).

Si ce n’est pas le fondement de l’entreprise, c’est difficile et du coup, les projets ne s’industrialisent pas.

Le no-code est en pleine expansion dans les organisations et certaines études promettent que les applications no-code vont progressivement équiper de nombreuses organisations. Quels sont les avantages et les limites de s’équiper de solutions no-code d’après vous ?

Le no-code, en termes de traitement de données, a cet avantage d’accélérer l’accès à certaines analyses. Il permet aussi à des profils non experts de la donnée, comme les métiers, de s’emparer des sujets de la donnée, d’agencer leurs données pour produire des résultats très rapides. C’est donc un facteur de démocratisation de la donnée au niveau de l’utilisateur final et permet de gérer, pour les équipes Data comme métiers, le goulet d’étranglement des besoins en matière d’exploitation de la donnée.


Mais il faut que l’accès au no-code soit cadré, notamment pour éviter les risques de Shadow IT et donc mise en danger des données. Il peut être tentant pour aller plus vite, de contourner les règles d’achat IT et d’utiliser des outils accessibles en ligne.

Ces outils librement accessibles peuvent envoyer les données sur le Cloud, à des endroits qui ne sont pas maitrisés.  En matière de cyber sécurité et de protection des données sensibles de l’organisation, cela peut vraiment être problématique.

Et en même temps, le Shadow IT comprend un paradoxe : le risque qu’il engendre va parfois permettre de démontrer un ROI ! Par exemple, une petite expérience réalisée dans un coin qui va fonctionner et permettre une prise de conscience collective, preuve à l’appui…

Donc le no-code est vraiment pertinent, mais dans le cadre de l’exploitation de la donnée, il faut vraiment veiller à limiter le Shadow IT !

Les enjeux de souveraineté numérique semblent aujourd’hui importants.

En tant que professionnel de l’IT, choisir des sous-traitants Français souverains est-il un facteur important selon vous ? Pourquoi ?

À titre personnel, je pense que choisir des sous-traitants Français est important à deux niveaux :

  • D’abord, pour l’image de marque de mon entreprise. Choisir le « Made in France » peut être un argument marketing de mon entreprise, à mettre en avant. Par exemple, le « Made in France » va rassurer les clients quand on parle de traitement de données personnelles même si je trouve personnellement ce côté chauvin un peu désuet à l’heure de l’Europe.
  • Ensuite, dans certains cas, l’aspect règlementaire prime et le choix est limité. Par exemple, dans le cadre du RGPD, on est contraint de respecter par exemple des règles d’hébergement, ce qui limite le choix et pousse à se tourner vers des hébergeurs souverains.

En France, nous avons un bel écosystème Tech et je pense que c’est important de les consulter, à la fois pour faire tourner l’économie nationale mais aussi pour financer l’innovation.

Notre « French Tech » innove, mais les entreprises sont souvent petites et la question qui se pose alors est : « Vais-je être capable de travailler de façon industrielle avec cet acteur ? ». La limite, c’est la pérennité des projets et malheureusement, c’est souvent plus rassurant de travailler avec de gros acteurs plutôt qu’avec de plus petits.

Après, par expérience, dans la Tech de niche, on peut avoir des bonnes surprises, notamment car les petits acteurs, plus agiles, vont pouvoir accélérer le « Time-to-Market ».

Enfin, faire appel à des prestataires souverains permet de maintenir une excellence française et aujourd’hui, il est important de se dire qu’on peut être en autarcie sur certains sujets sans être dépendants de certains acteurs étrangers qui vont nous imposer des conditions commerciales ou qui vont avoir accès à des informations critiques. Mais il faut faire attention de ne pas choisir français juste parce que c’est français. Il faut à mon sens, toujours comparer à qualité équivalente.

Donc pour répondre à votre question : souveraineté numérique, européenne, oui, mais la performance et la qualité des services avant tout !

Thomas Petit est DSI avec plus de 25 ans d’expérience dans des organisations diverses (au sein de domaines IT aussi variés que la banque (BNP Paribas, Crédit Agricole), l’industrie (Saverglass), la formation (Demos, Aston Groupe SQLi), la santé (CHU d’Amiens, CH du Mans, mentorat européen EIT Health de start-up en santé) ou le service (Altran, ManpowerGroup Talent Solutions).

Depuis 25 ans, il veille à créer du dialogue entre les équipes métiers et les équipes techniques, en vue de maximiser l’efficacité de la fonction IT et de positionner la DSI au cœur des enjeux métiers de l’entreprise. Pour sortir de la « technique pour la technique », et devenir un véritable acteur de la croissance de l’activité.

Il est également membre de l’Association Nationale des DSI & CDO ainsi que de l’Agora des DSI/CDO pour des échanges constructifs entre pairs.

Cet article est issu d’une interview de l’équipe Invenis d’AdvanThink

Images : Photo de Diego PH sur Unsplash, de Claudio Schwarz sur Unsplash

[Paroles d’experts] Données sensibles et innovation de Défense : quels défis ?

Cet article a été rédigé par Invenis, avant l’acquisition de la société par AdvanThink

L’industrie de la Défense est une industrie particulièrement innovante. Les règles qui régissent cette industrie sont spécifiques et les besoins d’innovation visent à répondre aux besoins actuels mais d’anticiper les besoins futurs. Au centre de l’innovation de défense, le rôle des données est essentiel.

Ce mois-ci, nous avons eu le plaisir de nous entretenir avec Denis Gardin, Directeur de l’Innovation et des Technologies futures chez MBDA Systems.

Invenis – Quels sont les grands défis d’innovation dans l’industrie de la Défense ?

Denis Gardin – L’innovation dans le domaine de la Défense a des particularités propres à son secteur.

Tout d’abord, nous travaillons généralement sur des temps longs (parfois supérieurs à 10 ans) pour sortir un nouveau produit pour des clients. Les Ministères des Armées des pays avec lesquels nous travaillons achètent des capacités militaires dans lesquelles la partie « matériel » n’est qu’une partie d’un ensemble qui inclue également la doctrine d’emploi, la logistique, la maintenance, la formation… L’innovation de défense doit s’inscrire dans ce contexte.


Ensuite, dans l’industrie de la Défense, les produits sont souvent créés pour les besoins d’un seul ou plusieurs client spécifiques qui financent la Recherche et le Développement. Ces clients de « lancement » sont souverains ont leurs propres besoins et cahiers des charges qui ne sont pas nécessairement ceux de l’ensemble des autres clients potentiels. Nous faisons tout ce qui est possible pour construire des coopérations internationales pour faire converger les besoins par rapport à de nouveaux produits.

Nous opérons donc dans un environnement « sous contrainte » car on est très dépendant de ces clients de lancement, et l’innovation produit y est très encadrée par les règles de sécurité liée à la Défense et parfois limitée par des contraintes budgétaires et opérationnelle. Toutefois, la performance des produits est un élément-clé de l’innovation de Défense car nos clients cherchent à acquérir un avantage opérationnel sur ses potentiels adversaires. Cela créé un fort appétit général pour les dernières innovations technologiques, qui est un véritable moteur pour toute l’industrie. L’accès aux technologies critiques et donc l’indépendance vis-à-vis de pays tiers est un autre élément-clé.


Une fois le produit développé, se pose la question de l’exportation et de la vente de ce produit à l’international. À ce stade, on se retrouve en concurrence avec l’ensemble des industriels de défense mondiaux, et donc parfois en concurrence avec des solutions moins élaborées mais à coût plus faible. De plus, comme les développements de produits sont longs, on peut se retrouver à proposer un produit un peu en décalage avec les offres du marché au moment où il est disponible. Tout l’enjeu est donc de trouver le juste équilibre entre le développement de produits performants, élaborés et innovants et les proposer à des coûts concurrentiels sur le marché international.

Car chaque défense de chaque pays a ses propres contraintes, ses propres budgets et le marché à l’exportation est un véritable enjeu pour nous.


Enfin, les enjeux de sûreté et de sécurité sont centraux dans l’innovation de Défense. Cela impose des contraintes fortes, notamment en période de paix.

Cette innovation de défense se fait donc aujourd’hui dans un contexte où :

  • Nombre de technologies sont tirées par les marchés civils qui investissent énormément en Recherche et Développement. À titre de comparaison, Amazon investit à hauteur de 30 à 40 milliards de dollars par an en R&D là où les Armées investissent 8 milliards d’euros.
  • Il y a des multitudes d’informations à gérer sur les technologies, leur maturité et leur potentielle intégration dans des systèmes d’armes de plus en plus complexes.
  • De nouvelles menaces émergent continuellement : armes hypersoniques, cybermilitarisation de l’espace, milieux sous-marins…
  • Une nouvelle concurrence émerge : de nouveaux entrants sur le marché de l’innovation de Défense apparaissent dans des pays comme la Corée du Sud ou la Turquie ou de nouvelles entreprises 100% digital ou s’appuyant sur un marché civil.
  • L’émergence de nouveaux conflits crée de nouveaux besoins avec un sentiment d’urgence
  • Une géopolitique de l’innovation particulière est active, avec une concurrence technologique acharnée et des limites à l’exportation des technologies critiques
  • Et enfin, la guerre des talents est féroce avec une contrainte supplémentaire à d’autres secteurs puisque chaque talent doit pouvoir être habilitable au secret-défense.

Le traitement et l’analyse d’informations sont cruciaux dans le secteur de la défense et de la sécurité. Quels sont les nouveaux usages de la donnée dans la Défense ?

Denis Gardin – L’un des nouveaux enjeux concerne la gestion de la multitude d’informations pour créer des systèmes complexes : accès aux technologies disponibles dans le monde civil, gestion des savoirs en interne, gestion des compétences, modélisation et simulations des systèmes pour développer les meilleurs produits et arbitrer les meilleures contraintes, gérer les « jumeaux numériques » et la configuration des produits de bout-en-bout, c’est-à-dire en assurant la continuité numérique des processus de développement, de production et de vie des produits.

Un deuxième enjeu concerne la gestion des données des produits en cours de vie pour optimiser leurs opérations, leur stockage, leur durée de vie et leur maintenance.

Et pour cela, nous manquons cruellement de données ! Nous ne disposons pas des informations nécessaires au cycle de vie des produits une fois qu’ils sont chez le client.

Prenons un exemple. Lorsque nous vendons un missile, on garantit une durée de vie de 10 ans, qui est calculée selon des études physiques et des hypothèses extrêmes sur leurs conditions de stockage. Mais un missile qui est armé sur un avion n’a pas les mêmes conditions de vie que lorsqu’il est stocké, notamment en ce qui concerne la gestion des impacts de températures et de vibrations. Les problématiques de maintenance pourraient être améliorées par la prise en compte de la vie réelle du missile. Aujourd’hui, nous disposons peu de ces informations

En quoi la donnée appuie t’elle l’innovation de défense ?

Les données, l’Intelligence Artificielle permettent de simplifier les opérations de développement de l’innovation de Défense : identifier de nouveaux matériaux grâce à l’IA, définir de nouveaux profils aérodynamiques, interroger des bases de brevets pour trouver des solutions à des problèmes, détecter des signaux faibles dans un environnement…

L’exploitation des données et l’usage de technologies comme le Machine Learning trouvent bon nombre d’applications dans la mise en place de projets d’innovation dans la Défense.

Dans le secteur de la défense, certaines données sont classifiées et ont donc une diffusion restreinte. Comment fait-on pour traiter et analyser ces données sensibles ?

Comme nous l’avons vu plus haut, dans la défense, il y a à la fois multitude et pénurie de données. Dans le cas des données opérationnelles, nous sommes parfois confrontés à des difficultés de développement car nous manquons d’accès à ces données, compte tenu de la confidentialité des données et de leur gestion dans des environnements ultra-sécurisés.

Comment peut-on entrainer un missile à reconnaître une cible lorsque l’on ne sait pas à quoi ressemble véritablement la cible ? Les clients ne veulent pas partager leurs informations opérationnelles et il nous faut recueillir ces informations auprès de militaires dont c’est le métier, mais ce n’est pas une tâche aisée.

Il est donc extrêmement complexe pour nous d’obtenir des informations sur l’environnement dans lequel vont opérer les armements par exemple, ou encore des données classifiées, ce qui limite la capacité à manipuler ces données dans des data centers publics qui permettraient de bénéficier d’infrastructures à la demande.

Nous contournons donc ce problème en générant des données utiles pour entrainer des modèles via des opérations de « simulations réalistes ». Mais ce n’est pas simple pour autant puisque cela engendre des questions de fiabilité et de sûreté de fonctionnement ou d’éthique car il faut pouvoir démontrer la pertinence des algorithmes créés à partir de ces données simulées.

Ces particularités représentent un défi pour l’innovation dans la Défense autour des données et nous imposent d’être à la pointe scientifique et technique dans les disciplines de sciences des données et de l’intelligence artificielle de confiance pour offrir des solutions sûres et testées.

Concernant les données classifiées, les contraintes pour la gestion des données sont liées au niveau de classification de ces données, au sens de la sécurité nationale. En fonction du niveau de classification, les données ne peuvent être manipulées sur des infrastructures informatiques de niveau de sécurité au minimum égal au niveau de classification des données les plus sensibles utilisées dans le traitement. Cela limite la manipulation et l’intervention de tiers non habilités.

Et donc, comment faire ?

Il faudrait pouvoir créer des Clouds qui fonctionnent à des niveaux d’habilitation élevés, mais là encore, il y a un décalage avec ce qui est aujourd’hui possible dans le civil, compte tenu du statut particulier de ces données.

Cela étant, il existe des solutions. Par exemple, des ingénieurs travaillent sur des chiffrements homomorphes qui permettent de manipuler de la donnée sans jamais la voir. Il y a également la question des infrastructures pour faire circuler les données, mais en France, nous n’avons encore pas de cloud Secret Défense, et ce n’est pas dans la culture de la défense de travailler en réseau. On a plutôt tendance à ségréguer énormément nos données en les gardant dans un seul lieu physique, sécurisé et déconnecté du reste du monde par une cage de Faradet !

La qualité des données est indispensable lorsque l’on parle à des Organisations d’Importance Vitale. Quels conseils donneriez-vous à un DSI ou un Directeur Data qui doit améliorer la qualité de ses données ?

Je ne suis pas un expert de la qualité des données. Toutefois, en tant qu’expert dans le développement de projets innovants, je pense que l’on peut traiter l’amélioration de la qualité des données comme l’on traiterait un projet innovant.

L’approche du sujet de Data Quality comme un sujet d’innovation permettra de bien cibler les données, de mettre en place les organisations de gouvernance et d’infrastructures en embarquant les ressources en interne.


Il faudra donc également s’entourer de personnes compétentes dans chacun des sujets identifiés pour améliorer la qualité des données, démontrer la valeur de la Data Quality et le « Technology Readyness Level » afin d’embarquer toutes les équipes derrière ce projet. Comme dans tout projet technologique, l’acculturation des équipes aux enjeux de la qualité des données est un axe majeur.

Pour cela, la première étape consiste à démontrer la « Preuve de valeur ».

Commençons par identifier les données stratégiques, celles qui méritent qu’on investisse dans leur qualité. Dans les organisations, on peut classer les données selon leur utilité et commencer par se concentrer sur les données à forte valeur. Celles-ci permettront de démontrer l’intérêt et la valeur business du projet car personne n’investit dans la qualité des données si personne ne sait à quoi cela sert ou quelle valeur cela peut rapporter.

La valeur et les données identifiées permettront de mettre en place le bon plan d’action. Il est essentiel, en parallèle à des études exploratoires visant à valoriser le potentiel de ces données, de mettre en place une organisation et des moyens informatiques permettant la bonne gouvernance de ces données afin de définir les règles de gestion, de mise à disposition de ces données avec un niveau de qualité et de sécurité qui correspond aux besoins identifiés et aux niveaux de confidentialité des données.

Une fois qu’on a réussi à démontrer la valeur, qu’on sait où sont stockées ces données et que les responsables sont identifiés, on passe à la démonstration du passage à l’échelle. Cela permet d’identifier tous les facteurs à prendre en compte pour le passage à l’échelle, tant en termes de disponibilité des données, que de qualité de l’infrastructure.

Enfin, on passe à la mise en production, en déployant le système en réalité.

Le vrai sujet portera sur un principe-clé d’innovation : comment transformer une idée en valeur et donc comment créer de la valeur à partir de la Data. Les données sont une ressource, un ingrédient nécessaire à la génération de nouvelles capacités. C’est en les valorisant qu’elles deviendront importantes dans l’organisation et mériteront que l’on investisse du temps et des compétences sur elles, à tous les niveaux de l’organisation.

Denis Gardin est directeur de l’innovation et des technologies futures, où il anime les activités de facilitation de l’innovation, l’innovation ouverte, l’intrapreneuriat, le Corporate Venture Capital et la gestion propriété intellectuelle.

Après un début dans l’administration au Ministère de l’Economie, il a occupé divers postes au sein d’Airbus dans les domaines de la R&D et l’innovation, de la cybersécurité et la conception de systèmes complexes. Il participé au lancement et dirigé des entreprises innovantes au sein d’Airbus.

Il est diplômé de l’ENS de Paris, du Corps de Mines, et d’un PhD de Berkeley en Physico-Chimie des surfaces.

Cet article est issu d’une interview de l’équipe Invenis d’AdvanThink

[Paroles d’experts] Données dans l’industrie navale : quelles priorités ?

Cet article a été rédigé par Invenis, avant l’acquisition de la société par AdvanThink

Le traitement des données est un enjeu crucial de l’industrie. Cet enjeu est encore plus important lorsque l’on parle d’industrie de la défense dans lequel les enjeux de sécurité, pour les équipements et les équipes, sont importants.

Nous avons eu la chance de nous entretenir avec le vice-président du GICAN pour aborder les sujets d’innovation dans le domaine naval.

Rencontre avec Louis Le Pivain, Vice-président du GICAN et Ingénieur général de l’armement (2s).

Invenis – Bonjour, pouvez-vous nous présenter le GICAN en quelques mots ?

Louis Le Pivain – Le GICAN est un syndicat professionnel, un groupement d’entreprises qui travaillent dans le domaine naval. On y retrouve des entreprises de construction navale, des équipementiers…

Le point commun de toutes ces entreprises est l’activité marine et navale sous l’angle industriel. Aujourd’hui nous regroupons 268 entreprises membres.

Le GICAN vise à créer des relations fortes entre ses membres pour créer une cohérence, une équipe forte d’industriels navals en France, défendre les intérêts de ces entreprises dans ce milieu vis-à-vis des institutions publiques et par ailleurs optimiser et faciliter la mise en place de projets au sein de l’industrie navale.

Nous regroupons nos membres pour réfléchir à des thématiques d’importance dans le domaine via des réunions en comités et la mise en place de groupes de travail.

L’exploitation des fonds marins représente par exemple un intérêt fort, tant dans les informations qu’ils contiennent que par les données qui y transitent. D’ailleurs, saviez-vous que 90% des informations intercontinentales transmises dans le monde passent par des câbles sous-marins ?

Il faut donc savoir poser ces câbles dans de bonnes conditions et être capable de les protéger. Plusieurs de nos membres travaillent sur ce sujet.

Quels sont les défis auxquels sont confrontées aujourd’hui les industries navales ?
En quoi la donnée peut-elle être une solution à ces défis ?

Louis Le Pivain – Aujourd’hui l’industrie navale civile rencontre de gros problèmes d’approvisionnement en matières premières. Depuis la crise du Covid, les équipementiers ont des difficultés à s’approvisionner en acier ou en aluminium, soit pour des raisons de disponibilité, soit pour des questions de prix.

C’est un des points sur lesquels nous sommes particulièrement attentifs.

Sur le plan militaire, les enjeux sont un peu différents. Le ministère des Armées nous demande de nous positionner en économie de guerre dans la logique du conflit entre l’Ukraine et la Russie.

Il faut que nous puissions être capables de monter en puissance en termes de productivité et donc par exemple, là où nous produisons une unité tous les six mois, pouvoir produire une unité tous les deux mois. Cela demande une adaptabilité forte au niveau industriel.

Je vous parle de bateaux mais le sujet est encore plus vrai au niveau des consommables qui doivent pouvoir être construits dans de plus brefs délais. Les outils de production doivent pouvoir être adaptés et l’enjeu est énorme.

C’est à mon sens à ce niveau que la donnée a un rôle à jouer.

Déjà, en nous permettant de nous appuyer sur des moyens informatiques qui viendront épauler le travail des producteurs.

Mais aussi parce que l’enjeu repose sur notre capacité à avoir des équipements disponibles et prêts à l’action. Dans un deuxième niveau, l’enjeu de maintenance dans les équipements existants est primordial. Et on peut optimiser la maintenance pour améliorer la disponibilité des équipements grâce à la donnée.

Dans notre jargon, on parle de « MCO », de Maintien en Condition Opérationnelle. C’est un sujet prioritaire sur lesquels nos membres travaillent beaucoup dans le domaine de la Marine militaire, et cela se fait avec le Service de Soutien de la Flotte (le SSF).

Quelle place occupe le traitement des données dans le développement de l’innovation dans l’industrie navale civile et militaire ?

Louis Le Pivain – Le traitement des données prend de plus en plus de place et permet d’optimiser la rentabilité de ce qui est mis en œuvre dans l’industrie navale.

Maintenant, nous sommes face à des quantités de plus en plus importantes de données, sur des formats de plus en plus différents. Or, le traitement de la donnée est au cœur des enjeux du secteur de la défense qui est une industrie de l’information.

Dans le domaine des grands fonds par exemple, il y a un volume de données énorme et des données qui sont totalement hétérogènes. Savoir exploiter les données des grands fonds est absolument important et fondamental !

Pourquoi ? Tout d’abord pour avoir une meilleure connaissance de ces grands fonds. Par exemple, les différents sous-marins nucléaires se meuvent dans les grands fonds intermédiaires, dont je me garderai bien de dévoiler la profondeur maximale.

On récolte déjà de nombreuses données dans ces fonds, mais on est avide d’en avoir plus et de les comprendre, pour améliorer la capacité d’écoute de nos sous-marins d’attaque et leur capacité de détection de sous-marins ennemis.

Ensuite, l’eau est un milieu anisotrope avec des ondes sonores qui ne se déplacent pas en ligne droite, et peuvent rebondir sur des surfaces intermédiaires, comme sur un miroir par exemple dans le cas d’inversion de gradient de température… Il faut savoir exploiter, traiter ces données particulières. Et parmi elles, identifier l’information pertinente, le signal faible qui nous permettra d’identifier par exemple un sous-marin ennemi extrêmement discret pour qu’on puisse éventuellement le détruire.

Le sujet de l’exploitation des données des fonds marins est un sujet qui n’est pas nouveau mais sur lequel il y a eu peu de progrès depuis une trentaine d’années. Le champs des possibles est important et touche des enjeux industriels, des enjeux de défense mais aussi des enjeux écologiques.

Quelle sera d’après vous la prochaine révolution technologique dans l’industrie navale ?

Louis Le Pivain – Dans l’industrie navale, le sujet de la souveraineté revient en force depuis deux ans.
Les problématiques sont différentes selon que l’on parle de l’industrie navale civile ou militaire.

Dans le domaine militaire, les données sont confidentielles et la production de nos équipements sont ancrés dans un savoir-faire français. Nous ne dépendons pas de solutions extérieures à la France, sauf dans quelques cas particuliers tels que les catapultes. Sur le porte-avion Charles De Gaulle par exemple, il y a des catapultes à vapeur fabriquées par l’américain General Atomic. Sur le prochain porte-avion, elles seront électromagnétiques et toujours construites aux Etats-Unis. Mais cela reste, heureusement, un cas rare dans l’industrie de la défense puisque la quasi-totalité des équipements sont construits en France ou en Europe.

Dans la Marine de commerce, c’est très différent.

En 1980, 74% de la flotte marchande française était construite en France. C’est moins de 10% aujourd’hui.

Il y a un réel enjeu collectif pour qu’il y ait de la construction navale civile française. Certains chantiers français, comme, par exemple Les Chantiers de l’Atlantique, auront dans quelques années une concurrence redoutable en Chine. Cela pose des problèmes dans la sécurisation et le risque d’interception de nos données.

Prenons un exemple. La société Orange dispose d’un câblier utilisé pour mettre à l’eau les réseaux de communication transocéaniques. Ce câblier n’a pas été construit en France.

Cela me semble très dangereux à terme, notamment en ce qui concerne la souveraineté des données transocéaniques. Si vous utilisez des entreprises qui ne sont pas souveraines pour la mise à l’eau des câbles, vous prenez le risque de la préemption de l’information par des intrus qui ne doivent pas disposer de ces informations.

Cela n’est pas spécifique au domaine naval, mais il y a une nécessité de protéger nos données numériques et des entités comme l’ANSSI ou la DINUM jouent un rôle essentiel pour que les données des industriels français et les industriels navals soient protégés des intrusions et des actions de malveillance. D’où l’intérêt de passer par des entreprises françaises pour accompagner la révolution technologique de l’industrie navale !

Invenis vient d’intégrer le GICAN.
Quels sont les bénéfices qu’une société comme Invenis apporte au GICAN ?

Louis Le Pivain – Je crois qu’il est absolument nécessaire de protéger les données sensibles dans le domaine du naval et Invenis apporte des solutions novatrices dans le traitement et la protection des données des entreprises du naval.

Comme vu ensemble au cours de cet échange, l’industrie navale rencontre des enjeux de traitements et de compréhension de données en masse et de formats très variés. Il est indispensable de retrouver des partenaires français et performants notamment pour accompagner la production et la maintenance des équipements. Invenis est au cœur d’une reprise par l’industrie navale française de sa souveraineté.

Je suis sûr qu’il y aura des interactions constructives et positives entre Invenis et les membres du GICAN. Ils se sentiront soutenus dans le traitement de toutes leurs données, même hétérogènes.

Ancien élève de l’École polytechnique et de l’École nationale de techniques avancées, branche mer, Louis Le Pivain est vice-président du Groupement des industries de construction et activités navales (GICAN), membre de l’Académie de marine, ingénieur général de l’armement (2s), président de Kermenez SAS, conseiller du commerce extérieur de la France.

Auditeur de la 34è session du CHEAr, il est membre du comité des Sages de 3AED-IHEDN. Auditeur de la 15e session IHESI, il est secrétaire général de l’Association nationale des auditeurs Sécurité /Justice (ANA-S/J). Louis Le Pivain est maire adjoint à Viroflay, il est président du comité de Viroflay du Souvenir Français et du comité de la SMLH.

Cet article est issu d’une interview de l’équipe Invenis d’AdvanThink