mercredi 10 octobre 2018

Gouvernance des systèmes d'information et utopie numerique

Par Christophe Legrenzi

Cet article a été écrit à l’occasion de la 10ème conférence internationale de la Gouvernance des Système d'Information qui a eu lieu à Lisbonne le 9 Octobre sur le thème : « Gouvernance des SI et stratégie des organisations », ainsi qu’au dixième anniversaire du Club Européen de la Gouvernance des SI qui a eu lieu le 23 octobre 2018 à Paris (http://www.acadys.com/wp-content/uploads/2018/10/Programme-d%C3%A9taill%C3%A9-10-ans-ceGSI.pdf) en la présence de Gilles Babinet, digital champion de la France auprès de la Commission Européenne, et de certains des meilleurs experts européens du sujet.


Les avancées technologiques n’ont en général pas ou peu apporté en pratique de bénéfices mesurables aux entreprises utilisatrices. Ce phénomène est appelé le « Paradoxe de Solow » du Prix Nobel d’économie 1987. D’un côté, le « producteur » : l’industrie informatique s’enrichit année après année, alors que le « consommateur » et/ou « l’utilisateur » de ces nouvelles technologies, nos organisations publiques et privées, ont le plus grand mal à créer de la valeur. Voilà le véritable défi de notre société !
Dans un article de recherche publié en 2015, édité à l’occasion du numéro 200 de VSE (Revue de l’Association des Docteurs en Economie et en Sciences de Gestion) et intitulé « Informatique, numérique et système d’information : définitions, périmètres, enjeux économiques », qui, étrangement, caracole en tête des articles les plus lus (cf. Cairns), nous avons résumé les 3 causes majeures empêchant aujourd’hui les entreprises de profiter pleinement des opportunités offertes par la ‘fausse’ « Révolution numérique », que nous préférons appeler plus justement : « Révolution informationnelle et des services ».
Ces 3 causes sont :
1. La méconnaissance des enjeux financiers liés au numérique et aux systèmes d’information (versus informatique) due à l’absence de définition clairement acceptée et aux limites des systèmes de gestion actuels
2. L’utopie (voire le fantasme) technologique couplée à l’homéostasie organisationnelle souvent véhiculée par l’industrie informatique laissant croire qu’il suffit d’adopter une nouvelle technologie pour en obtenir les bénéfices
3. Une gouvernance SI déficiente se traduisant par une absence d’implication de la direction générale ou un manque de courage managérial pour initier les changements qui s’imposent pour créer de la valeur.

1. La méconnaissance des enjeux financiers liés au numérique et aux SI et les limites des systèmes de gestion actuels
Les entreprises utilisent couramment le vocable ‘numérique’ en remplacement voire au détriment des termes ‘informatique’ et ‘système d’information’. Pourtant, nos décideurs préparent et valident encore et toujours des budgets informatiques…
Pour donner une perspective concrète, l’activité numérique pèse en moyenne 10 fois plus que l’informatique et deux fois moins que celle liée au système d’information. Les managers qui ont compris toute l’importance de ces nouveaux terrains de jeu, identifient des gains de productivité d’au minimum 10 à 30%. Etrangement, quasiment personne ne définit ce qu’est le numérique ou le système d’information, et encore moins le mesure, alors qu’il semble être l’enjeu principal de la transformation de nos organisations.
Déjà à l’époque, Philippe Lorino resituait parfaitement l’inadaptation des pratiques comptables : « Les outils aujourd’hui utilisés par le contrôle de gestion portent la marque de ces origines historiques. Ils reflètent le type d’environnement pour lequel ils ont été forgés, la grande industrie naissante de 1880-1910. Il n’est donc pas évident qu’ils soient adaptés aux besoins des entreprises de 1980-2010, à moins de soutenir l’hypothèse hardie selon laquelle l’industrie n’aurait guère changé depuis un siècle… Dans quel domaine de l’activité humaine peut-on prétendre travailler aujourd’hui, à l’aube du XXIème siècle, avec des outils et des méthodes développés à la fin du siècle dernier ? » (Lorino, 1991)
Ils sont d’autant plus inadaptés quand il s’agit d‘activités nouvelles comme l’informatique, le numérique ou les systèmes d’information.

2. Utopie technologique et homéostasie organisationnelle
Jean-Louis Peaucelle, mandaté par le Ministère de l’Education, a démontré dès le début des années 80 dans le cas de l’informatisation des fonctions comptables et financières des Universités françaises que les gains de productivité induits par l’introduction de l’outil informatique sont conditionnés par des changements organisationnels (Peaucelle, 1981). Pire, ne pas les engager entraîne inéluctablement une détérioration de la performance. Simon Caulkin le confirme : « … trop d’entreprises ont surimposé de nouvelles technologies sur des organisations anciennes en automatisant les problèmes et non les solutions » (Caulkin, 1989). Tout comme Lorino : « Le gain virtuel apporté par le progrès technique a été souvent neutralisé par la transformation trop lente des mentalités et des organisations » (Lorino, 1989).
Il y a déjà un quart de siècle, le rapport Fontaine cité notamment dans le rapport de Jean Le Garrec explique parfaitement le phénomène d’homéostasie organisationnelle couplé à l’utopie technologique : « L’informatique vient en quelque sorte se plaquer sur l’organisation existante, bien souvent déficiente. Elle ne fait alors que la rigidifier, devenant par là-même un obstacle à l’efficacité des services…/… l’informatisation s’est développée sans lien suffisant avec les réflexions sur l’évolution des structures administratives et de l’organisation du travail. L’informatique est restée ‘plaquée’ sur les schémas et les procédures existants » (Le Garrec, 1992).
David Norton identifie trois raisons qui empêchent les entreprises de retirer tous les bénéfices de leurs investissements dans les technologies de l’information (Norton, 1987) :
Nous avons été dirigés par une vision technologique
Nous n’avons pas su identifier les changements organisationnels
Nous ne possédons pas les outils nécessaires pour appréhender les bénéfices
En synthèse, cela fait maintenant plus de 30 ans que les meilleurs experts ont dénoncé le mythe de l’utopie technologique, sans pour autant qu’il soit systématiquement remis en question dans nos organisations.
3. Une gouvernance SI déficiente
De nombreuses études, déjà anciennes, ont montré que l’implication de la direction générale dans le processus d’informatisation était clé (Delone, 1988) tout comme leur niveau de compréhension des enjeux (FITI, 1986) et la qualité de leur relation avec le responsable informatique (Austin, 1988).
En 2004, les Professeurs Weill et Ross avaient démontré sur la base d’une étude mondiale menée sur 250 entreprises que la valeur générée par des projets à composante informatique était directement dépendante du niveau de maturité en gouvernance informatique (Weill & Ross, 2004). Ils soulignaient d’ailleurs que près de 62% des décideurs étaient incapables de définir précisément ce qu’était la gouvernance informatique. En dehors de l’ouvrage de 2006 de Gérard Balantzian « Le Plan de Gouvernance du SI » (Balantzian, 2006), on observe dans le microcosme franco-français une définition très endémique associant les référentiels internationaux de type : ITIL, ISO 27002 ou CMMI à la gouvernance informatique, en parfaite contradiction avec les définitions pourtant officielles que sont celles de l’ISACA/ITGI reprise dans COBIT et de l’ISO 38500. L’erreur est de confondre les « bonnes pratiques de gestion interne » qui représentent avant tout une vision « endogène » et celles de « gouvernance » dont l’orientation est principalement « exogène », tournée vers l’entreprise, ses métiers voire ses actionnaires et autres parties prenantes (Legrenzi, 2009).
En 2010, reprenant d’autres études publiées, nous avons pu confirmer que lors du processus d’informatisation ce n’est pas tant la qualité des solutions envisagées, mais bien le niveau de maturité en Gouvernance Informatique qui conditionne la performance d’entreprise (Legrenzi & Salzman, 2010).
Le professeur Almiro de Oliveira et Claude Salzman, fondateurs du Club européen de la gouvernance des systèmes d’information, affirment dans leur Manifeste : « Dans une économie quaternaire dominée par le secteur de l'information et de la connaissance, le management de l'information émerge comme un nouveau facteur de distinction et de différentiation, source d'avantages compétitifs tant pour les entreprises que les organisations publiques, dans un contexte de globalisation accélérée.../… Ainsi, la connaissance des coûts et de la valeur de l'information permet de prendre en compte la variété des problématiques de management de l'information et concourt aux Bonnes Pratiques de la Gouvernance des Systèmes d'Information » (De Oliveira & Salzman, 2009).
C’est bien la Direction Générale qui est responsable de la Gouvernance des Systèmes d’Information comme le confirment clairement les référentiels COBIT et de l’ISO 38500. Or, si elle ne s’implique pas dans le processus de transformation, il y a effectivement peu de chance que les décisions synonymes de création de valeur, soient prises.
Recommandation : la gouvernance des SI pour lutter contre l’anarchie et l’utopie technologique
Même s’il semble indispensable de gérer la fonction informatique, ce serait une erreur de s’arrêter là. La distinction entre pilotage informatique, numérique et du système d’information réconciliant les visions technicistes avec les enjeux métier est incontournable.
Une fois les enjeux clarifiés, il s’agit ensuite de replacer le pilotage et la gouvernance des systèmes d’information au cœur des débats. La gouvernance des SI est d’autant plus importante que le monde connaît la 2ème plus grande révolution économique de son histoire : la Révolution Informationnelle et des Services. Or, sans véritable gouvernance des SI, utopie technologique et anarchie conduiront inéluctablement nos belles entreprises à leur perte.
C’est à ce prix que les entreprises et les managers du futur réussiront leur projet de transformation, pérenniseront leur activité et gagneront en compétitivité.

samedi 11 août 2018

Le rôle de la conception dans les projets


Tout le monde connaît des applications qui sont désespérément lentes, des sites Web tellement touffus que le visiteur finit par s’y perdre, des traitements fonctionnant normalement et qui soudain, sans prévenir, sortent des résultats aberrants, … Tous ces incidents sont des signes qui ne trompent pas. Tout professionnel vous le dira : « Il y a un problème de conception ». Il est même possible qu’il n’y ait pas eu de conception (1) et cela se voit.
Normalement tout projet informatique comprend avant la réalisation (2) une phase de conception plus ou moins importante. Le nom de cette étape varie mais on la retrouve dans toutes les démarches : approche classique, prototypage, démarche en spirale, méthode agile, …. Cette étape est très importante car elle permet de s’assurer que rien d’important n’a été oublié, que l’application envisagée est techniquement réalisable et qu’elle fonctionnera convenablement.
L’expérience montre que sans une étape conception le projet dérive et fini par se « planter ». Plus de 65 ans de développement de logiciels montrent son importance. Jadis elle était assez succincte. En quelques jours on rédigeait un court document illustré par quelques schémas. Aujourd’hui on n’hésite pas à passer du temps à définir ce qu’il est souhaitable de faire faire à l’application et la manière de procéder pour y arriver. Mais jusqu’où faut-il aller ? Les méthodes agiles suppriment l’étape consacrée à l’élaboration du cahier des charges. Est-ce la bonne approche ?
Mais qu’est-ce qu’au juste la conception ?

Fausses conceptions sur la conception.

Avant d’aller plus loin il faut commencer par faire un sort à certaines vieilles lunes concernant la conception. En effet, il existe en ce domaine un certain nombre d’idées assez inexactes, voir franchement inexactes :
  • La conception est du temps perdu. Les tenants de cette approche pensent qu’il est préférable de commencer très vite par programmer puis ensuite d’ajuster le code en fonction des retours des premiers utilisateurs (3). Ce type d’approche amène à réaliser une 2ème puis une 3ème version, … C’est du « quick and dirty » et plutôt du « dirty-dirty ».
  • L’analyse fonctionnelle consiste à recueillir les besoins de tous les intéressés pour définir les spécifications de la future application. On va pour cela multiplier les entretiens, les groupes de travail et les travaux de synthèse. Cela correspondant au souhait d’être sûr de ne rien oublier. Il faut être claire : la conception n’est pas la collecte de toutes les doléances de tous les utilisateurs potentiels. C’est un préalable mais ce n’est pas la conception proprement dite.
  • On conçoit l’application indépendamment des choix techniques et organisationnels qui sont ensuite effectués. Or la dimension fonctionnelle n’est qu’une partie des spécifications de la future application. Les performances, la sécurité, les contraintes qui s’imposent dans le domaine technique, la maintenabilité, la fiabilité des traitements, … sont des éléments importants à prendre en compte dans la conception de l’application.
La conception s’est autre chose. C’est une vision globale de la future application et la manière de la développer de façon à arriver à une solution efficace et élégante.

Le secret des projets à succès

Heureusement un grand nombre d’applications sont bien conçues. L’observation montre qu’il existe aussi un certain nombre d’autres applications mal foutues. Ce sont celles dont les utilisateurs se plaignent fréquemment. Et très souvent on constate que ceci est dû à des faiblesses de conception. L’expérience montre que l’absence de conception se traduit par le développement « d’usines à gaz » ou par des « plats de nouilles ». Ceci se traduit par un grand nombre de « bugs » qui, finalement, produisent de nombreux « plantages » d’exploitation (4).
A l’inverse une application efficace repose généralement sur une conception de qualité. Cela se manifeste par des temps de réponses excellents, une succession d’opérations simple, les traitements sont sûrs, les bases de données sont de qualité et fiables, la maintenance se fait sans peine, …. Lorsque la conception est de qualité cela se voit.
Ceci ne veut pas pour autant dire qu’il est nécessaire de rédiger un cahier des charges de 500 pages touffues et difficiles à comprendre. La qualité de la conception ne se mesure pas au nombre de pages produites mais à la quantité et la qualité du « jus de cervelle » qui sont investies dans le projet.
L’observation montre que la qualité de la conception se manifeste de deux manières :
  • une économie de moyen. Peu de ressources sont nécessaires pour développer le projet. Celui-ci se déroule rapidement et arrive aux résultats attendus dans les délais prévus. Autre point significatif, l’application bien conçue a besoin pour fonctionner d’un volume de ressources informatiques raisonnables.
  • une grande souplesse du système. Il est apparemment simple d’emploi et a une capacité d’évolution satisfaisante de sorte qu’il s’adapte sans trop d’effort à un changement du contexte.
Mais ces deux caractéristiques, économie de moyen et grande souplesse, ne sont pas propres à l’informatique. Elles concernent aussi d’autres domaines comme la conception et la réalisation d’ouvrages d’art comme les ponts, mais aussi le développement d’avions, de moteurs, … C’est le résultat de la mise en œuvre d’un savoir-faire particulier, c’est presque un tour de main. Ceci montre que la conception n’est pas une science mais plutôt un art.
L’expérience montre que certaines personnes sont de bons concepteurs et que d’autres ne le sont pas. Ce n’est pas un problème de formation. Il arrive que des personnes bardés de diplômes s’avèrent être des concepteurs médiocres alors qu’à l’inverse des personnes nettement moins diplômés sont excellents en ce domaine. Des formations aux techniques de gestion de projet améliorent leur efficacité mais elle ne permet pas d’acquérir la capacité à faire de bonnes conception. C’est, à la base, une affaire de talent et de créativité.

Le rôle du concepteur

Dans le processus de développement le concepteur joue un rôle particulièrement important. Mais les termes usuellement employés pour décrire la fonction de concepteur sont ambigus. Ce sont soit des analystes soit des chefs de projet :
  • L’analyste. On précise souvent que c’est un « analyste fonctionnel ». En fait ce n’est pas analyste, car il n’analyse pas mais au contraire conçoit, et il ne limite pas son intervention au seul domaine fonctionnel. Il n’a pour mission de décomposer le futur système en unités élémentaires mais au contraire d’imaginer une solution globale cohérente. Le titre d’ «analyste» devrait être évité. Celui de «concepteur» serait préférable.
  • Le chef de projet. Très souvent le concepteur est désigné par le terme de chef de projet mais au moment de la conception de l’application il n’y a pas encore de projet. De plus il travaille seul ou avec un ou deux collaborateurs. Le terme de chef de projet est en avance par rapport à la suite des événements. Par contre en phase de réalisation il peut devenir chef d’équipe mais il est difficile d’être à la fois concepteur et chef de l’équipe de réalisation car cela ne fait pas appel aux mêmes compétences.
En fait le rôle du concepteur ressemble assez à celui d’un architecte (5). Le concepteur informatique commence faire une étude généralement appelée expression des besoins ou étude de faisabilité. Ce premier travail ressemble beaucoup à l’étude faite par les architectes appelée «esquisse» ou «plan masse». Ensuite le concepteur va effectuer une analyse fonctionnelle qui se traduit par cahier des charges. Ce travail est assez voisin de celui de l’architecte appelé «avant-projet définitif» ou «dossier d’appel d’offre» (dossier d’APO).
On notera que la conception en informatique comme en architecture se fait en deux étapes : une conception globale (ou conception d’ensemble) suivie ensuite une conception détaillée. Un jour un stagiaire qui suivait un cours de gestion de projet m’a demandé pour quelle raison il y avait deux étapes. J’ai été perplexe et j’ai fini par lui répondre : «c’est l’habitude car on évite de mettre tous les œufs dans le même panier». On retrouve cela dans toutes les démarches d’ingénieries.
Certaines méthodes agiles comme Scrum ou Extreme Programming ont cherchés à ramener la conception à une seule étape d’initialisation ou de cadrage, souvent basée sur des scénarios d’utilisation. Ce sont en fait des études de faisabilité. Par contre toutes les méthodes agiles bannissent l’étape d’analyse fonctionnelle. Malheureusement cette étape a un double rôle fondamental : s’assurer que rien d’essentiel n’a été oublié et évaluer l’effort de programmation et de tests nécessaire pour arriver à une application opérationnelle. Résultat : la probabilité de dérive augmente.
Comme on le voit le rôle de la conception est fondamental. Qu’elle se fasse en une ou deux étapes, elle est indispensable et le concepteur est l’acteur principal de cette étape. Son rôle est de construire un système simple et efficace à partir d’un ensemble hétéroclite : des idées plus ou moins bien formulées, des demandes hétérogènes faites par les utilisateurs, de nombreux documents, différentes études techniques, des entretiens, les travaux de groupes de travail, des spécifications, …. En fait un bon concepteur est un homme de synthèse. C’est un véritable «artiste» : un homme de l’art connaissant tous les aspects de la réalisation de système d’information et capable d’effectuer les choix des solutions les plus efficaces.

Tentative de définition de la conception

Comme on le voit il n’est pas facile de définir ce qu’est la conception. C’est un peu comme la définition de l’escalier en colimaçon. Si vous demandez à quel qu’un ce que c’est-il hésite puis fini par faire un geste de la main pour montrer que cela monte en tournant. Bien sûr il existe dans le dictionnaire une définition : « c’est un escalier qui s’enroule sur lui-même ». C’est beau mais ce n’est pas d’une grande clarté. Une approche empirique est préférable.
Pour mieux cerner la définition du travail concepteur deux points clés se dégagent. Il doit d’abord avoir la capacité à intégrer toutes les contraintes et définir de manière claire le périmètre fonctionnel de l’application. Il va notamment définir ce qui fait partie de la future application et ce qui n’en fait pas partie. Il doit ensuite être capable de fixer un budget et un délai pour réaliser le projet. Il va pour cela effectuer des arbitrages budgétaires tout en tenant compte des contraintes de ressources et de délais.
Un de mes amis, qui est un excellent concepteur, à l’habitude de dire que : «la conception consiste à fermer des portes en disant : «ça je ne le ferais pas» ». Au-delà de la boutade il y a une réalité. Face à chaque demande et à chaque spécification il doit s’interroger sur l’effort nécessaire pour le réaliser et son utilité. Pour cela il suit une démarche qui n’est pas sans rappeler celle de l’analyse de la valeur. Souvent le concepteur dit : «ce sera dans la version 2». C’est la manière polie de «fermer les portes».

Il est plus facile de reconnaître une mauvaise conception

Mais comment définir une bonne conception ? En fait, il est plus facile de constater qu’une application a été mal conçue alors qu’il est plus difficile de définir pour quelle raison une autre application est bien conçue. En effet les systèmes mal conçus ont quelques caractéristiques communes :
  • Lenteur. Les saisies sont lentes et les traitements poussifs. Les utilisateurs se plaignent souvent de devoir attendre devant les écrans qu’ils se déverrouillent. De même les contrôles sont fastidieux et peu efficaces.
  • Touffue. Très vite l’utilisateur se plaint d’être perdu dans la succession des opérations et ne plus savoir ce qu’il doit faire. Les fonctions sont confuses, les libellés ne sont pas clairs, … Ceci fait que les utilisateurs commettent fréquemment des erreurs de navigation ou de sélection des traitements.
  • Peu efficace. L’application informatique mise en œuvre n’a pas permis de dégager des gains significatifs (gains de productivité, augmentation du chiffre d’affaires et du bénéfice de l’entreprise).
  • Sécurité insuffisante. Le système est jugé peu fiable par ses utilisateurs. Les données sont mal sécurisées. Les redémarrages sont longs et laborieux et il arrive que des données soient perdues. Pire, on s‘en aperçoit au bout de quelques semaines, voir de plusieurs mois après l’incident qu’il est très difficile voir impossible de reconstituer les données perdues.  
Ces symptômes sont en grande partie liés à des faiblesses de conception ou à la médiocrité de la réalisation. On le sait : une conception médiocre ne peut qu’entraîner une réalisation médiocre. Malheureusement ces défauts ne peuvent qu’être constaté qu’a posteriori lorsque l’application est mise en production et il est alors généralement trop tard pour corriger la faiblesse de la conception.
Autre signe qui ne trompe pas : lorsque l’application mal conçue devient opérationnelle on constate, que la maintenance nécessaire est anormalement élevée, difficile à effectuer et coûteuse. Malheureusement, à ce moment il est trop tard pour corriger ces défauts (6).
Il est préférable de détecter ce type de fragilité dès la phase amont. Malheureusement, l’expérience montre qu’il est difficile de constater à ce moment la faiblesse de la conception. Cependant il existe des signes annonciateurs. Ainsi si l’étude de faisabilité ne fixe pas de manière claire et non-ambigu le périmètre fonctionnel on risque de constater par la suite une dérive significative. Ensuite, lors de la phase fonctionnelle on constate que le document final type cahier des charges est verbeux, par clair et assez filandreux. C’est un critère simple : « si vous ne le comprenez pas ce n’est pas de votre faute. C’est dû au fait que la conception est faible, voire mauvaise ». Deux autres critères permettent d’évaluer ce document :
  • Il est lourd et difficile à lire.
  • Il part dans tous les sens.
Comme les fragilités de la conception peuvent avoir de graves conséquences il est important de veiller à avoir de bons concepteurs.

Trouver un bon concepteur

Malheureusement il est très difficile d’arriver à détecter a priori quelles sont les personnes qui ont de bonnes capacités de conception. Rien ne permet de présumer ces compétences. Tant qu’on n’a pas mis les personnes en situation on ne saura pas si elles ont des compétences de conception. Comme le dit le proverbe : «C’est au pied du mur qu’on voit le maçon».
Un minimum de connaissances est nécessaire : une bonne culture informatique, une solide pratique de la gestion et une connaissance approfondie du domaine à informatiser. C’est une base nécessaire mais ce n’est pas suffisant.
Il est pour cela nécessaire de tester un certain nombre de personnes pour découvrir celles qui ont de réelles compétences de conception. On a souvent d’heureuses surprises mais fréquemment de nombreuses déceptions.
Pour ces raisons il est nécessaire de cultiver dans l’entreprise ces compétences et surtout de les conserver. Pour choisir les personnes deux orientations sont envisageables  :
  • une solide culture technique du type ingénieur ou équivalant. Ce sont fréquemment des informaticiens mais ce peuvent aussi être des ingénieurs mécaniques, électriques, chimiques, travaux publics, … Souvent de simples techniciens ont des capacités insoupçonnées.
  • une forte culture d’entreprise notamment dans les domaines de la gestion et de management. Pour être efficaces il est indispensable que ces personnes aient aussi une bonne connaissance de l’informatique.
On constate qu’actuellement les entreprises recherchent plutôt des personnes du deuxième type capable de comprendre les préoccupations du management et les demandes des futurs utilisateurs tout en étant capable de dialoguer avec les informaticiens.
Souvent, n’ayant pas en interne ces concepteurs, les entreprises font appel à des SSII (7) et à des cabinets de conseils car elles ont souvent des concepteurs de bonne qualité car ils ont vu de nombreuses entreprises et effectuer une grande variété de missions. Mais il y a aussi parmi leurs collaborateurs des personnes nettement moins efficaces, à éviter.

L’absence de concepteur peut être fatale

Dans les entreprises qui se développent rapidement, notamment celles qui se sont résolument engagées dans leur transformation numérique, on constate que le nombre de projets est supérieur aux nombres de concepteurs disponibles. C’est une grave contrainte. Des demandes importantes sont bloquées ou, pire, des projets sont lancés sans conception où avec une conception réduite au strict minimum. Les résultats ne sont pas à la hauteur des espérances même pour des réalisations de taille limitées.
Face à cette situation deux solutions sont envisageables selon l’importance du projet :
  • Dans le cas d’un petit projet la solution consiste à faire du « versionning » en développant des versions successives. C’est la démarche proposée par le mode agile. On sort une nouvelle version tous les 2 mois. Cela peut être des versions offrant de nouvelles fonctions ou des réécritures successives de versions antérieures (on parle dans ce cas de «ravaudage»).
Cette démarche à l’avantage de permettre de limiter les risques de dérives fonctionnelles des projets. Par contre elle risque de se traduire par des coûts supérieurs à ce qui étaient prévus à l’origine. A cela s’ajoute le coût élevé de la maintenance nécessaire demandée par une application développée de cette manière. Il peut devenir si élevé qu’il est souvent préférable de réécrire entièrement l’application à «iso-fonctionnalités».
  • Dans le cas de grands projets, si on n’a pas en interne de concepteur ayant le savoir-faire nécessaire, il faut commencer par voir s’il n’est pas possible de dégager un concepteur faisant fonction de chef de projet en le remplaçant par un chef d’équipe de développement capable de contrôler les équipes sans toucher au contenu des fonctions à développer.
    Si ce n’est pas possible il faut alors envisager de sous-traiter la conception de la future application. Dans ce cas une attention particulière doit être portées aux personnes déléguées par les sociétés de service ou de conseil. Il faut étudier avec soins les CV des personnes proposées et leurs références et avoir un long entretien préalable avec elles.
Si on ne dispose pas de la personne ayant les compétences nécessaires il est préférable de ne pas lancer le projet et d’attendre de trouver la personne compétente.
Il est aussi possible de découper en plusieurs petits projets plus facile à maîtriser par des personnes moins expérimentées. On parle dans ce cas de «saucissonnage». Faut-il encore que l’application s’y prête ?

Contrairement à ce qui est souvent dit, la qualité de la conception n’est pas une affaire d’outils ou de méthodes. Ils sont utiles mais ils ne font pas le travail de conception. Celle-ci est d’abord une affaire de compétences. Les entreprises doivent cultiver ce type de savoir-faire. Si ce n’est pas le cas, leurs projets risquent de dériver, voire d’échouer. L’expérience montre que des applications développées dans ces conditions risquent d’être lourdes et peu efficaces. A l’inverse les systèmes d’information efficaces reposent toujours sur une conception de qualité faite par un concepteur compétent. Cette constatation ne souffre pas d’exception.


1 - Le terme conception utilisé en France n’est pas parfait. Le terme anglais de « design » est plus juste même s’il est un peu trop restrictif.
2 - Parfois on fait l’inverse : on commence par programmer puis au bout d’un certain temps les programmeurs s’interrogent et se demandent comment « raccrocher les morceaux ». On cherche alors à dégager une sorte de conception. Généralement le résultat est assez décevant. Il est de loin préférable de commencer par la conception pour ensuite effectuer la programmation.
3 - C’est le fameux « Fixe and Code » des débuts de l’informatique. Cette démarche a en règle générale donnée des résultats décevants et elle a été progressivement abandonnée au profit de démarches plus structurées commençant par une phase de conception. Mais aujourd’hui encore on constate que cette démarche est encore pratiquée avec des résultats toujours aussi décevants. Si l’application se limite à développer 2 ou 3 programmes, il est vrai que le risque est limité. Au-delà on entre dans la « terra incognita ».
4 - La terminologie des professionnels est sur ce sujet particulièrement riche. « L’usine à gaz » est une application lourde et peu efficace. L’utilisateur doit faire beaucoup d’efforts pour finalement constater un résultat décevant. « Les plats de nouilles » sont des programmes mal bâtis. Ils sont foisonnants, avec de nombreux renvois en tout sens ce qui les rendent peu lisibles. Le terme « bug » est rentré dans le langage courant. C’est une erreur dans une instruction qui se traduit finalement par un « plantage ». Le terme est charmant mais la réalité est mal vécue par les utilisateurs qui, lorsqu’ils tombent sur un « bug », perdent une partie des données qu’ils viennent de saisir.
5 - Dans quelques entreprises on les appellent «architecte fonctionnel». Mais ce titre est, en fait, assez peu utilisé.
6 - On peut effectuer une analogie avec le bâtiment. Lorsqu’une maison est terminée, si on s’aperçoit au bout de quelques mois que d’importantes fissures apparaissent et si on estime qu’elles sont dues à des fondations insuffisantes (ou à une absence de fondations) il est alors difficile de corriger ces défauts. On peut faire des injections de béton mais il n’est pas sûr que ce soit suffisant.
7 - On les appelle de plus en plus souvent les entreprises de services du numérique (ESN).

samedi 13 janvier 2018

Les nouveaux services fournis par la transformation numérique

Nombreux sont ceux qui pensent que la transformation numérique est un nouveau moyen d’améliorer la productivité des entreprises en faisant la même chose avec moins de personnel. Ce n’est pas faux mais c’est une vision un peu limitée des bouleversements apportés par cette véritable révolution. Bien entendu, il est probable qu’il y aura des gains de productivité comme on en observé dans les années 1960-1980 avec l’informatique traditionnelle. Mais ce n’est qu’une faible partie des impacts apportés par les changements à venir. En quelques années on va assister à une série de changements profond qui vont s’enchaîner et se renforcer. Il est possible de distinguer six révolutions différentes. 

1 – Augmenter le chiffre d’affaires

Actuellement l’essentiel de la transformation numérique est liée à une augmentation massive du chiffre d’affaires des entreprises leur permettant d’effectuer des opérations différentes que celles qu’elles auraient traditionnellement effectuées ou en les réalisant autrement. C’est, par exemple le cas des compagnies aériennes ou de la SNCF qui utilisent leurs sites de ventes de billets, louent des voitures et réservent des chambres d’hôtel. De compagnie de transport elles se transforment en agence de tourisme faisant ainsi directement concurrence à leur réseau de distribution traditionnel. On voit aussi des opérateurs téléphoniques se lancer dans la banque et la diffusion de la presse, des fabricants d’ordinateurs vendre de la musique et des chansons ou des compagnies pétrolières vendre du gaz et de l’électricité. C’est un processus d’extension de l’activité de l’entreprise.
C’est la première étape du processus de transformation numérique des entreprises. A terme, il est probable les entreprises vont profondément changer le type et la nature de leurs activités. Pour s’en convaincre il suffit de comparer l’activité des GAFA avec celle des entreprises traditionnelles type CAC 40. Ce sont deux mondes différents. Cependant ces diversifications ont des limites car il est difficile de gérer une entreprise ayant de nombreuses activités différentes en s’adressant à des clients différents avec des dispositifs de vente différents. C’est le risque de « prendre la proie pour l’ombre ».

2 - Les clients demandent des services

Derrière cette étape il y en a une seconde révolution encore plus importante au cœur de la transformation numérique : le développement de services tel que ceux fournit Google, Facebook, Wikipédia, You Tube, … C’est la seconde révolution de la transformation numérique des entreprises. Elle correspond à une évolution profonde de la demande émanant des consommateurs et des entreprises qui sont, de plus en plus, demandeurs de services.
Traditionnellement les clients achètent des biens et s’en contentent comme l’achat d’un vêtement, d’un meuble ou d’un vélo. La possession du bien leur suffit. Au 20ème siècle on a commencé à observer que fréquemment la vente de biens s’accompagnait de services comme la réparation. C’est notamment le cas de l’automobile, des machines à laver, des téléviseurs ([1]), des ordinateurs, … Depuis quelques décennies on a constaté une accélération de la demande de services comme le financement et l’assurance de biens, l’installation des équipements, leur entretien, la formation des utilisateurs, la fourniture de logiciels, … Ce développement est une tendance lourde et représente une part croissante de la consommation des ménages et des entreprises.
Depuis 25 ans on constate que le développement d’Internet a entraîné la création de nombreux nouveaux services comme :
-       Les moteurs de recherche qui permettent de trouver en quelques secondes une information, un document ou des renseignements sur une personne.
-       Le mail qui, en quelques années, a quasiment fait disparaître le courrier traditionnel. Les cartes postales qu’on envoyait de son lieu de vacances ont quasiment disparues. Aujourd’hui les Madame de Sevigné envoie des mails, des SMS et des twittes.
-       La presse en ligne permet de suivre l’actualité en permanence sur son PC ou sur son smartphone. Les sites de la presse quotidienne ont des niveaux de fréquentation de plus en plus très élevés alors que leurs tirages papiers diminuent régulièrement.
-       Les réseaux sociaux permettent de constituer des groupes de personnes ayant des centres d’intérêts communs comme des anciens élèves d’une école, des collectionneurs, des pratiquants ayant des croyances communes, …
-       Les cartes en ligne permettant de trouver son chemin sans peine quel que soit l’endroit où on se trouve. En ville ou entre plusieurs villes elles vous indiquent les moyens de transports les plus adaptés. Les cartes Michelin en papier sont en passe de devenir une rareté.
-       La diffusion de la radio ou de la télévision en direct ou en différé. Il est possible de recevoir les émissions en tout point du monde au moment où on le souhaite. De plus de nombreuses radios Internet apparaissent sans avoir d’émetteur hertzien. Les PC, les tablettes ou les smartphones se transforment en poste radio ou en récepteur de télévision.
-       La VOD, la vidéo à la demande, permet de voir des films sans avoir besoin d’acheter des DVD. Les opérateurs offrent des catalogues considérables comme Netflix avec plus de 100.000 films ou séries. Mieux ils deviennent eux-mêmes producteurs de séries.
-       Le marché de la musique a connu une grave crise avec l’arrivée des sites de partage de musique mais il connaît depuis quelques année une stabilisation avec le développement du « streaming » et de la vente en ligne de musique.
-       L’appel de taxi grâce à un smartphone. Il est possible de savoir où est la voiture et de patienter jusqu’à ce qu’elle arrive et surtout de payer en un clic. Uber et ses nombreux imitateurs ont profondément déstabilisé la profession des chauffeurs de taxis.
-       Louer une chambre chez un particulier même si en fait, dans de nombreux cas, ce sont des professionnels de la location. Airbnb a déstabilisé l’ensemble du secteur de l’hôtellerie.
-       ….
Comme on le voit on assiste à une multiplication des services envisageables. Il existe une véritable faim pour les services proposés sur Internet. Ils ont fortement contribué au développement rapide du parc mondial de smartphones. De nombreux services sont gratuits, c’est-à-dire financés par la publicité, mais, de plus en plus, sont payants. Tous les jours de nouveaux services apparaissent. Certains ne réussissent pas à trouver leur public mais de nombreux services rencontrent le succès.
De plus, de nombreux services existants sont améliorés en les rendant plus facile à utiliser et mieux adaptés aux besoins des utilisateurs et à leurs attentes. Ainsi, à partir de l’historique des différentes opérations effectuées par l’utilisateur les plateformes comme : You Tube, Facebook, … il est possible de lui proposer un service personnalisé. Les possibilités offertes par cette approche sont considérables et les opportunités existantes sont très importantes. Elles permettent à des entrepreneurs inventifs de bénéficier très vite d’une réussite importante comme on en rencontre peu dans l’histoire des entreprises. C’est le second type de transformation numérique.

3 - L’irrésistible ascension du commerce en ligne                            

Le commerce en ligne est la troisième révolution apportée par la transformation numérique. C’est très un important facteur développement. Le commerce de détail sur Internet (le B2C) est apparu il y a 20 ans et depuis il se développe rapidement. Le cabinet eMarketer estime son volume mondial à 1.900 milliards de dollars en 2016 soit 8,7 % de l’ensemble du commerce. C’est considérable. Mais, surtout, sa croissance est très importante. En 2016 elle a été de 24 % soit plus de 6 fois le rythme de la croissance économique mondiale. On estime qu’en 2020 il dépassera 4 000 milliards de dollars par an. Le commerce électronique représentera alors 14,6% du total des ventes de détail effectuées sur notre planète.

Croissance du chiffre d’affaires mondial du commerce électronique
Mais le commerce de détail ne représente qu’une partie du volume globale du commerce électronique. Le plus gros volume d’échanges est constitué par le commerce entre entreprises : le B2B.  Il est estimé par la CNUCED ([2]) à 20.000 milliards de dollars en 2015. ([3]). Ce chiffre comprend tous les achats faits par les entreprises y compris par les procédures traditionnelles (papier, fax, téléphone, marché de gros, …) et ceux faits par EDI ([4]). La part du commerce B2B effectué sur Internet est estimée en 2016 à 2.000 milliards de dollars. C’est une profonde révolution de la relation entre les entreprises et leurs fournisseurs. Les commandes sont établies sur l’ordinateur du client et automatiquement transmisses sur l’ordinateur du fournisseur. On est loin des bricolages compliqués de l’EDI. Un nouveau monde est en train d’émerger.
Parallèlement on assiste à une évolution rapide du commerce électronique. Elle ne consiste plus seulement à proposer un catalogue sur un site Web, à recevoir des commandes, à se faire payer et ensuite à expédier les marchandises mais à adapter leur offre, quasiment en temps réel. On se rappellera que la VPC (Vente Par Correspondance) classique existe depuis plus d’un siècle et demi. Mais aujourd’hui la plupart de ces vieilles gloires ont disparus ou sont en état de survie. La plupart des VPCistes n’ont pas réussi le tournant de l’e-commerce. Cette difficulté est liée à leur business model qui les empêche d’avoir la réactivité nécessaire. En effet, traditionnellement, ils imprimaient deux fois par an un catalogue papier épais comme un annuaire. Le choix des produits et leur prix était fixé pour six mois.
Dans l’e-commerce il n’y a plus de catalogue papier. Les articles sont ajoutés ou supprimés au jour le jour. Si un article est en rupture de stock il est immédiatement verrouillé. En fonction de la concurrence locale on ajuste le prix des articles. Le secret de leur réussite s’appelle la réactivité. C’est le cœur de la troisième révolution apportée par le commerce électronique.

Les mystères de la longue queue

A cela s’ajoute un approfondissement considérable de l’offre permise par les catalogues en ligne. On n’est plus limité par le nombre de pages du document à imprimer. Il est possible d’élargir de manière considérable l’offre en proposant un plus grand nombre de référence venant de nouveaux fournisseurs. On parle d’approfondissement de l’offre ([5]). On a la même contrainte de place dans le cas des magasins où la richesse de l’offre est limitée par la surface d’exposition. Par contre la surface des disques n’a pas de limite. C’est un avantage considérable car il existe des clients qui cherchent des articles rarement demandés. On appelle ceci la « long tail » ([6]). Ce sont des articles peu fréquemment achetés (des produits à faible rotation) mais dont la masse finie par représenter une part significative du chiffre d’affaires pouvant représenter jusqu’au tiers du total.
Ainsi dans le secteur de l’édition on publie en France en moyenne 80.000 livres par an en France or une librairie bien achalandée ne peut offrir 5 à 10.000 livres. Cela veut dire que plus des trois-quarts de la production n’est pas proposée aux clients. L’offre total d’ouvrages distribués par les éditeurs est de l’ordre 700.000. Une librairie n’offre que quelques pourcents de l’offre total sans compter l’offre potentielle de livres d’occasion dont le nombre se chiffre en millions d’ouvrage. Et ceci uniquement en langue française.
Les commerçants classiques comment à s’apercevoir de l’importance du chiffre d’affaires potentiels permis par à la « longue traine ». Ainsi le grand magasin qui se trouve à côté de chez moi à Londres, Peter Jones, a disposé une affichette sur les portes qui peut être vue en sortant et sur laquelle est écrit : « There’s even more on line », soit : « il y en a éventuellement plus en ligne », avec l’adresse du site. C’est une incitation à aller visiter le site Web du magasin surtout si on n’a pas trouvé exactement l’objet recherché. D’ailleurs les vendeurs le disent : « Have you make a resarch on our web sites ? » : « Avez-vous fait une recherche sur notre site Web ? » Et ils joignent le geste à la parole pour vous montrer comme c’est simple et en quelques secondes sur leur PC ils trouvent l’article recherché ([7]).
Dans ces conditions sur un site Web il n’y a pas de limite à la taille de l’offre. La seule contrainte est le nombre de références qu’un responsable de rayon est capable de gérer. Pour lui faciliter le travail il est possible de lui proposer des moyens d’alléger son travail en demandant aux fournisseurs de lui fournir des bases de données des articles avec la photo et la description du produit. On peut aussi lui fournir un outil de contrôle qui lui donne les prix des concurrents pour un article donné, inciter les clients à évaluer eux-mêmes les produits afin d’éliminer les produits qu’ils ont mal notés, … Il est de plus possible de compléter l’offre de l’entreprise par celle de partenaires (en prenant, bien entendu, une petite commission au passage). Manifestement la distribution est entrée dans un nouveau monde.

4 - Les charmes discrets du One-to-One

La puissance et les capacités des architectures techniques, des serveurs et des logiciels systèmes actuels permettent d’envisager de suivre individuellement, chaque client et même prospect. C’est la quatrième révolution apportée par la transformation numérique. Il est ainsi possible d’avoir une relation personnalisée avec chaque personne tenant compte de ses goûts, de ses préférences, et de ses centres d’intérêt. Les serveurs conservent toutes les transactions et ainsi ils peuvent suivre ce que chacun consulte. Ils se « souviennent » de ce qu’ils ont vu, ce qu’ils ont acheté, et ils peuvent « en déduire » quel sont leurs attentes et leurs envies, …. Sur cette base les serveurs peuvent leur proposer des recommandations.
Les utilisateurs de YouTube se voit ainsi proposer des séquences vidéo, des chansons, des émissions de TV, des films, …. correspondant à leurs goûts et à leurs préférences. Le principe est simple : compte-tenu de ce qu’ils ont déjà vu il est possible d’effectuer des corrélations ([8]) significatives dans cette masse de données. On trouve le même type de service sur Facebook, Pinterest, Amazon, …
Il est possible d’aller plus loin et de suivre les utilisateurs effectuant des recherches de site en site puis ensuite de faire apparaître sur les sites qu’ils visitent des bandeaux et des placards proposant des offres adaptées à leurs attentes. Ces techniques s’appellent le reciblage publicitaire en anglais le retargeting. L’un des leaders mondial de ce type de service est une entreprise française : Criteo (Pour en savoir plus sur Criteo cliquez ici et cliquez ici pour tout savoir sur le reciblage  ). Il est ainsi possible de transformer rapidement des prospects en clients.
L’ensemble de ces évolutions montrent l’évolution du commerce électronique qui s’oriente de plus en plus vers une nouvelle relation avec les clients basée sur un certain nombre de nouveaux services qui vont profondément modifier les relations que les clients ont traditionnellement avec leur fournisseur. C’est par exemple le cas des relations qu’Apple a su développer avec ses clients avec la création de l’iPod puis de l’App Store pour fournir des programmes puis l’ouverture de l’iTunes Store et finalement avec le succès de l’iPhone et de l’iPad leur fusion dans l’iTunes ([9]). C’est tout une stratégie basée sur le développement conjoint de matériels et de services afin de mieux répondre à l’attente des clients. C’est la base de la nouvelle stratégie de fidélisation des clients.

5 – Une nouvelle approche du marketing

A côté du développement des services par la transformation numérique et celui du commerce électronique il existe une cinquième révolution. Elle concerne l’approche traditionnelle du marketing. Traditionnellement les entreprises font du « mass-market » c’est-à-dire qu’elles s’adressent par le même message publicitaire à des millions voir à des centaines de millions de prospects. Cela se traduit par des campagnes publicitaires massives par affichage, encart publicitaire, spot TV, … et de la mise en place simultanée des produits dans un grand nombre de points de vente.
La transformation numérique introduit trois mutations profondes dans la démarche classique de marketing :
-       Agir en temps réel ou en quasi temps réel. Il est possible de tester un produit, un changement de prix, une publicité, ... sur un panel et de voir immédiatement la réaction. En quelques heures on sait comment réagissent les clients, ce qui ce qu’il faut faire et il est possible prendre très vite la bonne décision. Il est aussi envisageable de réagir immédiatement à une offre ou à une baisse de prix effectuée par un concurrent. Face à une faiblesse des ventes on peut en quelques heures lancer une promotion, une campagne de déstockage, des soldes, ….
-       Mieux connaître chaque client et lui faire des offres adaptées. Nous l’avons vu, il est possible de faire des offres personnalisées en fonction des préoccupations et des attentes de chaque client. Mieux, il est possible d’envisager de détecter des prospects connaissant mal les offres de l’entreprise et de leur proposer des offres attrayantes souvent appelées les bons plans. L’expérience montre que ces démarches sont beaucoup plus efficaces que les campagnes de publicité massives ou les mailings papier traditionnels et de plus elles sont nettement moins coûteuses.
-       Remonter en temps réel des masses de données. On peut suivre en temps réel les ventes mais aussi suivre les personnes qui cherchent un article ou un service et qui ne le trouvent pas où qui sont déçus par l’offre faite par l’entreprise. Il est possible d’analyser ces comportements et d’améliorer l’offre soit en ajustant le prix soit en reformulant l’offre. Très souvent par des mesures simples on peut leur faciliter l’accès à la bonne page Web. De plus le commerçant peut sous-traiter à des entreprises spécialisées l’analyse en temps réel des recherches faites par des personnes qui ne sont pas connues par l’entreprise sur des sites concurrents et de faire des offres parfaitement ciblées à ces prospects.
Ces bouleversements sont permis par les possibilités offertes par Internet et par la puissance de traitement et de stockage offertes par les serveurs. Ce sont des changements très profonds par rapport à l’approche traditionnelle du marketing mais ce n’est rien par rapport à l’évolution constatée dans le domaine des contenus.

6 - La diffusion des contenus

Mais, à terme, la vraie révolution induite par la transformation numérique, la sixième, sera la plus importante. Elle concerne la diffusion des contenus : les textes, les images, la vidéo, la musique, … Et, à terme elle concerne le contenu même de la culture et des connaissances. On est face à un processus en 4 étapes :
-       La première étape a consisté à développer le commerce électronique des biens culturels (ou réputés tels !) comme la vente de livres, de CD, de DVD de film, de jeux, … On vend un objet mais au lieu que la vente se fasse dans une boutique elle se fait sur un site Web. C’est le premier moteur du fantastique développement d’Amazon, et, en France, à une plus petite échelle, de CDiscount ou de la FNAC. Le modèle a ensuite évolué en dématérialisant les produits en offrant la possibilité de télécharger de la musique numérisée, des livres électroniques et des films (iTunes Store, Google PlayStore, Amazon, …). Ainsi, en quelques années, le support physique des produits a disparu.
-       La seconde étape a reposé sur le développement de la consommation en ligne de services culturels comme l’écoute de musique en streaming, la vision de vidéo à la demande, l’écoute de chaîne de radio-Internet, … C’est le rôle de YouTube, de Spotify, de Deezer, de SoundCloud, de Netflix, … Netflix va plus loin que les autres en devenant lui-même producteur et réalisateurs des séries qu’il diffuse en exclusivité comme le célèbre « House of cards ».
-       La troisième étape a été de faire produire les services par les utilisateurs. L’exemple type est YouTube. On peut aussi citer Myspace et en France Dailymotion. Les artistes et les amateurs réalisent une vidéo et ensuite ils la mettent sur le site. Ce sont des chansons, des morceaux de musique, des sketchs, des documentaires, …. Au début les sites étaient alimentés par des personnes n’ayant aucun lien avec les auteurs, les producteurs ou les diffuseurs en violant allègrement les droits d’auteurs. Depuis quelques années les producteurs de télévision mettent eux même leurs émissions sur ces serveurs et certains hommes politiques ont créé leur propre chaîne. En matière de musique iTunes et SoundCloud jouent le même rôle.
-       La quatrième étape a pour objectif d’offrir la culture pour tous et gratuite. La plupart des Musés commencent à mettre leurs collections en ligne comme le Métropolitan Muséeum, la Tate Gallery, le British Museum, ….. En quelques clics on peut voir toute leurs œuvres sans avoir besoin de se déplacer. A côté de sites généraux comme Wikiart, Google Arts, Wikimédia Common, Printerst, … il existe des sites spécialisés dans l’œuvre d’un peintre, une école ou d’un thème. On voit aussi se développer des bibliothèques permettant de télécharger gratuitement des livres comme le Projet Gutenberg, ebooksgratuit, la bibliothèque électronique du Québec, Wikisource, … Il est aussi possible de suivre gratuitement des cours grâce aux MOOC, Massive Open Online Course. Il en existe de plus en plus (Voir l’annuaire des MOOC en Français : https://mooc-francophone.com/ ). Les principales Grandes Ecoles et les Universités ont mis en, place une plateforme au curieux nom de FUN (https://www.fun-mooc.fr ) permettant de suivre des cours de bons niveaux ([10]). La grande révolution dans le domaine du savoir a été la création de Wikipédia. C’est une encyclopédie universelle, multilingue et gratuite. Sa force est d’être rédigée par ses utilisateurs et contrôlée par la masse de ses lecteurs. Cette application a été imaginée et mise en œuvre en 2001 par Jimmy Wales et Larry Sanger (Pour en savoir plus sur Wipipédia cliquez ici  ). En quelque années Wikipédia s’est imposée et elle est devenue le 6ème site le plus visité dans le monde. Il a fait disparaître toutes les encyclopédies papier.
Comme on le voit on a assisté en quelques années à une révolution complète dans le domaine de la culture. La transformation numérique a commencé par impacter le monde la culture et elle est entrain de la changer profondément. L’industrie du disque est un très intéressant exemple de ces changements. Elle a été profondément bouleversée par Internet. En 10 ans, de 2005 à 2015 ses revenus liés à la vente de CD sont passés de 17,9 milliards de dollars à 5,8 milliards de dollars. Mais dans le même temps la vente de musique sur Internet et le streaming ont vu leur chiffre d’affaires passé de 1,1 à 6,7 milliards de dollars. Ceci fait que la baisse de l’ensemble de l’industrie mondiale de la musique a été limitée en passant de 20 à 15 milliards de dollars en 10 ans. Les personnes écoutent plus de musique et l’écoutent autrement notamment grâce au streaming. Selon le SNEP, le Syndicat National de l’Edition Phonographique, en France 22 millions de personnes soit un tiers de la population écoutent de la musique en streaming. Malheureusement pour les éditeurs seulement 4 millions de personnes paient un abonnement. Mais cela probablement rapidement évoluer.

La révolution numérique se fera en plusieurs étapes

Ceci montre que la transformation numérique ne se fera pas d’un coup mais qu’elle se réalisera par étapes. Dans un premier temps ce sont les mêmes supports et les mêmes contenus. Dans un deuxième temps le support a changé mais avec les mêmes contenus. Les personnes ont basculé vers ces nouveaux services pour des raisons de facilité, de confort, de rapidité, …. et surtout pour des raisons de prix. Au bout d’un certain temps on a constaté que les contenus ont évolué. La diffusion s’accroît et assez vite les contenus changent. Ainsi la nature de la culture va progressivement évoluer.
Ce phénomène ce n’est pas nouveau. Quand l’imprimerie a été inventée au milieu du 15ème siècle les premiers incunables ont été des ouvrages religieux (la Bible de Gutenberg) cherchant à reproduire les manuscrits calligraphiés fait les copistes. Mais quelques décennies après on a assisté à un changement des contenus avec l’édition de livres différents comme des ouvrages antiques, puis des romans, des récits historiques, et même de la science. Ces ouvrages ont connu une diffusion considérable et on a assisté à un élargissement des domaines du savoir puis, environ un siècle après, on a observé une explosion des connaissances dans le domaine scientifique avec Copernic, Kepler, Galilée, Newton, …. Ce n’est pas un hasard.
Toute proportion gardée, il en été de même en ce qui concerne le développement de la musique, de la chanson, de la variété, … Le succès du Rock-n-roll et du Yéyé est en grande partie lié à l’invention des disques 45 tours. De même l’invention du cinéma, puis de la télévision finalement de la vidéo ont amené le développement d’une nouvelle culture visuelle.
Cependant ces développements sont loin d’être parfaits. Une bonne partie de ces nouveaux objets culturels sont insignifiants voire franchement médiocres. Une sélection va probablement avoir lieu. Mais sur quelle base et quand ?

Les secteurs les plus directement bouleversés

L’exemple de la culture montre qu’on est face à des changements de grande ampleur qui vont plus loin que la simple fluidification du commerce. Ils sont irrésistibles car la technologie pousse très fort. Les progrès conjoints de la micro-électronique, des télécommunications (Internet) et des logiciels de base se traduisent par la multiplication des applications possibles. Celles-ci vont bouleverser l’économie de nombreux secteurs. Certains décideurs acceptent ces changements et s’adaptent plus ou moins vite tandis que d’autres les refusent.
Quatre exemples permettent de comprendre la nature et l’importance de ces changements :
-       Le commerce électronique. Quelques entreprises sont devenues les leaders du secteur comme Amazon ou Ali-Baba mais la plupart des entreprises du secteur de la distribution ont du mal à s’adapter comme Leclerc, Carrefour, Monoprix, … Seul exception notable, celle d’Auchan avec la réussite de Cdiscount. Comme on l’a vu précédemment la plupart des entreprises de la VPC (Ventes Par Correspondance) ont été incapables de s’adapter à ces changements. Dans les années à venir on va probablement assister à un bouleversement des leaders du secteur de la distribution.
-       La presse. La presse quotidienne voit sa diffusion papier s’éroder mais tous les titres ont des sites Web qui connaissent un succès considérable. Certains sites sont payants, d’autres sont à moitié gratuits et partiellement payant alors que la plupart ne comptent que sur la publicité pour vivre.
-       Radio-Télevision. Toutes les radios et les télévisions émettent sur Internet. Certaines radios ont joint l’image aux sons et ainsi se rapprochent de la télévision. De même la plupart des chaînes de télévision ont mis en place des sites de consultation différée (télévision de rattrapage). On constate aussi que les opérateurs téléphoniques proposent des bouquets de chaines ou des sites de consultation de la presse.
-       La billetterie notamment de voyages par avion ou par train. En quelques années le billet électronique a supplanté le traditionnel billet papier. La vente au guichet a considérablement diminué. Les agences de voyages ont vu leur activité se réduire de manière considérable. Leur clientèle s’est réduite à l’organisation de voyages d’affaires, aux personnes âgées qui ont encore peur de s’aventurer sur Internet et celles qui n’ont pas de carte de crédit.
-       Le secteur de la musique. Ce domaine a été un des premiers à avoir été chamboulé par Internet dès la fin de 1999 avec des sites de piratage comme Napster, Kazaa ou Gnutella. Le marché du disque s’est effondré. Les Majors étaient à l’agonie puis le marché est reparti avec la vente de chanson au titre (iTunes, eMusic, AmazonMP3, …) ou en streaming (Spotify, Deeze, Qobuz, iTunes, SoundCloud, …). Mais on ne reverra plus les Majors qui dominaient jadis le marché du disque.
Ces secteurs montrent bien la nature des changements à venir. On assiste à un changement du rôle des entreprises et celles qui n’ont pas évoluée ont été sanctionnées voir éliminées. Il est probable que tous les secteurs économiques et sociales vont être concernés. Cependant on note que certains secteurs freinent cette évolution inéluctable.

Ceux qui freinent risque d’avoir des lendemains difficiles

D’autres secteurs ont plus de mal avec la transformation numérique. Elles risquent d’avoir de graves difficultés et vivre des lendemains compliqués. Quatre secteurs sont particulièrement concernés par ces rigidités :
-       Les administrations. Il existe quelques belles applications dans le domaine de la fiscalité mais dans d’autres domaines elles ont rencontré de graves difficultés comme le « plantage » de Louvois ou l’arrêt du projet ONP (Office National de Paye), les péripéties du système APB (Admission Post Bac), ... Les besoins sont considérables mais beaucoup de projets dérivent et certains finissent au mur. La liste des projets public défunts est longue. Ceci est dû à de nombreux facteurs dont la complexité fonctionnelle de ces projets, le manque de compétence interne, la faiblesse des maîtrises d’ouvrages, la lourdeur des procédures des marchés public, … Mais fondamentalement ces difficultés sont liées au manque d’intérêt des dirigeants publiques et du personnel politique pour ces sujets. La culture des énarques ne les pousse pas vers les applications de la technologie. Emmanuel Macron est un peu une exception dans ce milieu.
-       Les PME et les artisans. Ces micro-entreprises ont toujours eu des difficultés avec l’informatique. Bien entendu, elles n’ont pas de compétences en interne et elles ont donc recours à des vendeurs de matériels et de progiciels ou des petites sociétés de services qui ont du mal à leur fournir des prestations de qualités à des prix adaptés. Souvent ces prestataires « cassent » leurs prix mais dans ce cas elles ne sont plus rentables et finissent par disparaître. A cela s’ajoute la difficulté de savoir très exactement ce qu’il faut faire. On peut être un excellent menuisier et être un peu perdu dans ce domaine. En plus il y a un problème de moyen car toutes ces micro-entreprises ont des ressources limitées. Dans ces conditions il existe un risque important « d’uberisation ». D’ailleurs une partie importante des taxis sont des artisans et sont complètement désarmés face à des opérateurs ayant les moyens de développer des applications de gestion des appels et de le diffuser sur les smartphones de millions de clients.
-       La santé. C’est un des secteurs qui a le plus de mal à engager sa transformation numérique. Ceci est d’abord dû à la complexité du secteur. Il se compose de nombreux intervenants : médecin libéraux, hôpitaux, cliniques, infirmières, kinésithérapeutes, laboratoires d’analyses, fabricants de médicaments, pharmaciens, sécurité sociale, mutuelles, … Les acteurs publics et privés ont des objectifs divergents et personne n’a un leadership clair. A cela s’ajoute deux facteurs de blocage spécifiques à ce secteur : le conservatisme traditionnel du monde médical et la crainte d’être marginalisée par la technologie. Depuis quelques temps la grande crainte est le diagnostic effectué grâce à l’Intelligence artificielle : Watson menace Esculape.
-       L’enseignement. Cela fait plus de quarante ans que des pionniers essaient de développer l’enseignement assisté par ordinateur (l’EAO). Jusqu’à ce jour on ne peut pas dire que c’est un grand succès. Ceci est dû à la conjonction de plusieurs facteurs. Parmi ceux-ci deux facteurs expliquent une grande partie cet échec :
o   La forte prégnance du modèle magistral dans l’enseignement français. Le professeur parle et l’élève écoute.
o   Les enseignants reproduisent le modèle pédagogique qu’ils ont connu dans leur jeunesse. Ils ont beaucoup de mal à envisager un autre mode de formation.
A cela s’ajoute la crainte du changement. Toute modification des méthodes pédagogiques, quel que soit sa nature, est perçu par le corps enseignant comme une agression. Pourtant la transformation numérique de l’enseignement est inéluctable pour de simples raisons économiques. A cela s’ajoute l’évolution des enfants qui sont entrés dans un nouveau monde et qui ont du mal à comprendre des méthodes pédagogiques datant d’un autre âge.
Ces quatre secteurs sont certainement les plus menacés mais à côté d’eux il y a dans différentes autres branches de nombreuses entreprises qui n’arriveront pas à prendre le train en marche. Ceci est probablement dû à la sous-évaluation de l’importance de la révolution portée par la transformation numérique par les responsables de ces entreprises. Pour éviter cela toutes les grandes entreprises ont nommé des CDO (Chief Digital Officier). Pour l’instant, leur impact est limité. Ils n’ont pas eu un impact important car peu d’entre eux ont réellement compris les raisons du succès des GAFA (Google, Amazon, Facebook, Apple). Cela ne veut pas dire que demain il n’aura pas d’heureuses surprises mais on peut craindre, sans risque de se tromper, qu’il y aura de nombreuses entreprises, actuellement dominantes qui seront progressivement marginalisées.




[1] - On a complétement oublié mais jadis, du temps des lampes, les radios et les télévisions tombaient régulièrement en panne. Les progrès réalisés dans le domaine de l’électronique ont permis de fiabiliser ces équipements et a complétement bouleversé ce petit marché.
[2] - La CNUCED ( Conférence des Nations unies sur le commerce et le développement) est un organe de l’ONU dont la mission est de développer les économies des pays, notamment des pays en développement, et à les intégrer à l'économie mondiale.
[3] –  Classement du Commerce BtoB selon la CNUCED :
  • -       Etats-Unis : 6 000 milliards de dollars.
  • -       Japon : 2 400 milliards de dollars.
  • -       Chine : 2 000 milliards de dollars.
  • -       Corée du Sud : 969 milliards de dollars.
  • -       Allemagne : 966 milliards de dollars.
  • -       Royaume-Uni : 709 milliards de dollars.
  • -       Russie : 700 milliards de dollars.
  • -       France : 600 milliards de dollars.
  • -       Inde : 300 milliards de dollars.
  • -       Brésil : 110 milliards de dollars.


[4] - EDI : Échange de Données Informatisé ou Electronic Data Interchange, est une procédure d’échange d'informations automatique de machine à machine entre deux entités à l'aide de messages standardisés basés sur la norme UN/EDIFACT. Cette démarche a été mise en place dans les années 1980. Elle s’est largement développée dans le secteur de l’automobile mais a eu plus de mal à se généraliser dans les autres secteurs.
[5] - Il ne faut pas confondre l’approfondissement de l’offre, c’est-à-dire l’augmentation du nombre de références offerte pour une famille d’articles donnée, et l’élargissement qui consiste à ajouter de nouvelles familles d’articles et des rayons différents.
[6] - Pour éviter les traductions ambiguës en français le terme « long tail » peut être traduit par le terme longue trainée. (Pour en savoir plus sur la "long tail" cliquez ici ).
[7] - Napoléon a dit : « L’Angleterre est une nation de boutiquiers ».
[8] - On parle souvent d’algorithme et on pense que les serveurs font des calculs très mystérieux faisant appel à l’intelligence artificielle mais la plupart du temps c’est la simple constatation que les acheteurs (ou les spectateurs) des articles achetés (ou vus) ont aussi choisi d’autres articles (ou vidéos).
[9] - La succession des boutiques d’Apple est très intéressante. Au départ iTunes Music Store a commencé en 2001 par proposer des chansons et de la musique vendue par morceau pour l’iPod. Puis il a étendu son offre en proposant des vidéos musicales, des livres audio, et des podcasts. Ensuite iTunes Store a élargi son offre en 2006 en proposant des jeux vidéo pour l’iPhone puis des séries télévisées vendues par épisode ou par saison, puis des films de cinéma. Enfin en 2008 iTunes Store a intégré l’App Store pour vendre des applications destinées à l’ensemble de ses matériels : iPod, iPhone et iPad.

[10] - Personnellement depuis plusieurs années je suis sur mon PC un certain nombre de cours du Collège de France dont certains sont passionnants et simples à comprendre. Il est vrai que d’autres cours sont plus difficiles à suivre (pourles voir cliquez ici  ).