La petite histoire de la grande transformation des systèmes d’information de gestion

Code ! Lewis Ngugi/Unsplash

À quoi sert un SIG ? Dans une approche instrumentale, un système d’information de gestion (SIG) a d’abord pour mission de fabriquer de l’information. En cohérence avec cette approche dite « outil de gestion » du SIG, l’information ainsi fabriquée est censée être pertinente, c’est-à-dire qu’elle doit aider le manager et/ou ses équipes à prendre les « bonnes » décision de gestion (j’achète ou pas ? j’investis ou pas ? je continue ou je renonce ? etc.). La qualité du SIG est donc liée à sa capacité de fabriquer de l’information pertinente c’est à dire capable de répondre à la question (de gestion) qui est posée ! Si, en plus, cette information arrive au bon moment, au bon endroit, au bon format et au bon destinataire… c’est formidable !

De quel bois le SIG est-il fait ?

C’est ainsi qu’une définition assez simple et aisément mobilisable s’est imposée à partir des travaux fondateurs de Robert Reix au début des années 2000 : un système d’information est un ensemble organisé de ressources ayant pour mission d’acquérir, de traiter, de stocker et de diffuser de l’information.

Dans cette logique instrumentale, quelles sont donc les fameuses ressources d’un SI. Tout d’abord il s’agit de matériels (hardware) et de logiciels (sofwtare) que l’on peut regrouper sous le terme de système informatique.

Puis tout se complique avec l’introduction des utilisateurs (user) de ce système informatique car ils apportent leurs procédures, leur processus et surtout leurs ambiguïtés et imperfections (erreurs, anomalies, oublis, malveillance, surveillance, redondance, etc.). Ainsi un Système d’information de gestion est donc l’intégration, plus ou moins cohérente et opérationnelle, d’un système informatique (par définition infaillible) et de ses utilisateurs humains (par définition faillibles).

Les ressources mobilisables sont donc finalement de trois types. Nous retrouvons donc le système informatique constitué du matériel (du plus petit comme les périphériques au plus massif comme les datacenter en passant par le poste de travail lui-même et les réseaux filaires et non-filaires) et des logiciels (des plus utilitaires comme les systèmes d’exploitation au plus intégrés comme les ERP/PGI en passant par les applications fonctionnelles) auquel nous ajoutons les utilisateurs que nous pouvons repérer selon leur profil c’est-à-dire le portefeuille de leurs habilitations (de l’utilisateur final à l’administrateur en passant par l’utilisateur clé et en excluant de facto le no-user !)

De quels types de transformation(s) s’agit-il

Nous n’aborderons pas ici les riches approches non instrumentales des SI (processus, structurationnistes, perceptuelles, transformateurs de représentations, etc.) publiées dans des revues majeures comme SIM, EJIS, MISQ ou ISR.

Quelque soit l’approche du SI retenue, face à la globalisation qui induira toujours plus d’intégration applicative pour répondre toujours plus vite à des sollicitations toujours plus complexes, la décision d’externalisation apparaîtra souvent comme logique et ordinaire. Elle correspond à un triple transfert de risques, de technologies et de compétences bien appréhendé par les diverses théories des organisations au travers du concept de frontière. Elle induira néanmoins des transformations organisationnelles et architecturales profondes ! Nous proposons de les illustrer via les quatre phases ci-après…

bidan

De l’importance de la double logique d’intégration et d’externalisation

L’intégration plus ou moins douce de ces différentes ressources rend l’objet système d’information, et en particulier le système d’information de gestion, tout à fait passionnant à investiguer, à décortiquer et à analyser. Cette analyse des contributions et des perceptions récentes du SIG est d’autant plus complexe qu’elle doit être contextualisée et en particulier confrontée à des variables externes comme l’amélioration des technologies (capacité de stockage, puissance de calcul, connectivité, fluidité des échanges) et internes comme l’évolution des pratiques (acceptation, usage, appropriation, assimilation) et des paradigmes.

Tout commence à la fin des années 1970, début des années 1980, avec l’apparition des fameux personal computer (PC) tels les IBM PC, Apple II et autres Commodore 64. C’est donc l’arrivée de l’informatique sur le poste de travail lui-même. Elle met ainsi sa puissance de calcul au service des décisions de gestion grâce au personal computer (micro-ordinateur) qui colonise les bureaux des employés du même nom.

La diffusion rapide du PC est bien évidemment portée par une interface graphique unifiée développée par Microsoft (ex-sous-traitant de IBM) qui sera à l’origine de systèmes d’exploitation bien plus intuitifs (de MS-DOS à Windows).

Phase 1 dite IHIN

Le SIG est intra-organisationnel, hétérogène, internalisé et non-interopérable.

Son architecture repose sur des silos applicatifs étanches. Chacun des services est doté de ses propres applications (souvent développées « maison ») et de ses propres base(s) de données et reposent sur des plateformes propriétaires. Les transmissions et échanges d’information de service à service se font plus ou moins manuellement au travers d’opération de saisie et de ressaisie qui s’avèrent très couteuses en temps et en bugs ! Le temps n’est pas encore de l’argent et la compétition se fait encore par les prix et pas encore par les délais. Cette architecture non standardisée pré Unix restera opérationnelle grosso modo durant les années 1980-1990.

Mais déjà la globalisation pointe le bout de son nez, le real time et le « time to market » imposent au SIG de réagir un peu plus vite aux sollicitations de l’environnement et donc de s’intégrer a minima.

Phase 2 dite OIII

Le SIG devient organisationnel, intégré, internalisé et interopérable.

Son architecture fait sauter les frontières des silos applicatifs pour que les applications puissent « se parler ». Il s’agit de regrouper les applications autour d’une seule et unique base de données logique. La base de données unique devient le pivot de cette architecture modulaire qui est peu ou prou celle des progiciels de gestion intégrés (sans « e » après le é). D’ailleurs les éditeurs de ERP/PGI (SAP, SAGE, Oracle, Microsoft, Cegid…) proposent aux entreprises, lors des implémentations, de remplacer leurs anciennes applications « maison » par leurs modules sous licence avec le double argument de la réduction des incompatibilités de format et de la fluidité des échanges de données. Le temps est devenu de l’argent et la compétition se fait alors par la capacité de répondre rapidement et avec pertinence à une sollicitation complexe. Cette architecture intégrée restera opérationnelle grosso modo durant les années 1990-2000 bien portée par les pseudo-bugs de l’an 2000 qui ont donnés lieu à moult renouvellement logiciels.

Mais déjà les solutions d’externalisation et d’infogérance des systèmes d’information pointent le bout de leurs datacenter et – avec une globalisation qui s’accentue – imposent au SIG de s’intégrer encore plus vite et encore plus profondément. Il faut réagir toujours plus vite aux sollicitations de l’environnement lui-même toujours plus perturbé

Phase 3 dite IIEI

Le SIG devient inter organisationnel, intégré, externalisé et inter interopérable.

Son architecture est désormais pleinement modulaire, les applications maisons ont quasiment disparues, et les modules des éditeurs pivotent autour d’une base de données de plus en plus incontournable dans le système d’entreprise ou plus exactement dans l’éco système d’entreprise(s) car le système intègre désormais plusieurs acteurs. Outre l’apparition de plusieurs entités actives au sein d’un même système d’information de gestion (client/fournisseurs, donneur d’ordre/sous-traitants, cluster, état/collectivités locales…), ce qui change vraiment, c’est l’externalisation du SIG ! En effet, les données et les applications de ces systèmes intégrés sont devenus trop lourdes et massives et sont désormais hébergées chez l’éditeur principal et/ou chez l’infogéreur dont c’est le métier et non plus au sein de la DSI de l’entreprise dans un local dédié avec des serveurs Dell ou HP administrés, maintenus et bichonnés localement. Les données sont devenues de l’argent et la compétition se fait désormais sur la capacité d’assurer une continuité de service coûte que coûte.

La DSI n’est donc plus en charge de la fabrique de l’information stricto sensu, mais du contrôle de cette fabrique réalisée par un opérateur extérieur sur des applications et des données qui restent néanmoins fournies ou du moins choisies par le client. Cette architecture intégrée et externalisée restera opérationnelle grosso modo durant les années 2000-2010 bien portée (1) par la formidable montrée en puissance des capacités technologiques (matériel, logiciel) et réseaux (fibre, Internet) des opérateurs du cloud computing et (2) par l’attractivité et lisibilité perçues de leur tarification.

Mais déjà les solutions d’externalisation en mode plate-forme unique pointent le bout de leurs data et – avec une globalisation qui s’accentue encore et encore – impose au SIG de s’intégrer encore plus vite et encore plus profondément autour de logiciels et de services qui ne lui appartiennent plus.

Phase 4 dite EIEC

Le SIG est devenu extra organisationnel, intégré, externalisé et capillaire.

Son architecture est désormais pleinement modulaire, les applications maison ont quasiment disparues mais les modules des éditeurs des années 2010 également ! Ils ont été remplacés par ceux des infogéreurs et autres fournisseurs cloud à l’image des licences des solutions 3DExperience. Les SIG des clients partagent les mêmes datacenter – du moins logiquement plus que physiquement – et ont accès aux mêmes opportunités que celles des fournisseurs et autres compétiteurs. Ils bénéficient des web-services des infogéreurs voire de leurs services additionnels lorsqu’ils traitent les données et proposent des business opportunities. Ces pratiques sont contagieuses et on parle de capillarité lorsqu’il s’agit d’adopter le même logiciel ou le même web service proposé par l’infogéreur que celui de son concurrent ou client. Les deux processus que sont l’intégration du SI et l’externalisation du SI sont arrivés à maturité. Ils convergent vers une standardisation du SI du client et à son absorption de facto par son infogéreur.

Grosso modo nous évoquons là les années 2010-2020 qui sont le glas des SI « maison » et montrent l’avènement de SI à la fois externalisés et désincarnés. Ces systèmes d’information dans l’entreprise sont clairement en situation extrême. A contrario, les systèmes d’information de l’entreprise sont désormais confrontés aux sirènes des business models « pay per use » des opérateurs du cloud computing qui en infusent l’alpha et omega.

Bidan

Vers un retour en grâce des solutions « maison »

Confronté à une règle du jeu numérique perturbée pêle-mêle par le Brexit (qui sera déclenché dans quelques jours), par l’arrivée du président D. Trump et surtout de ses décrets, par des cyber-attaques de plus en plus massives, par des clouds souverains à nouveau à l’ordre du jour, par des contrats d’outsourcing difficiles à négocier, par les opportunités et perspectives du Green IT et par les logiques sécuritaires certaines entreprises remettent en question le « tout externalisé ».

Elles commencent à revisiter l’offshoring et quelques directions générales imposent même à leur DSI, devenues « stratèges du numérique », le nearshoring voire le onshoring en mode pay per licence classique. Ces solutions re-localisées se proposent notamment d’appréhender différemment la confidentialité, la sécurité, l’accessibilité et l’intégrité des données.

La question de la localisation des données et des applications (onshore, offshore, cloud public, cloud privé, cloud hybride, cloud souverain, cloud régionaux) est donc posée. Elle sera essentielle dans le débat sur le dilemme réactivité/sécurité du SI. Systèmes d’information dans l’entreprise vs systèmes d’information pour l’entreprise ?