Le futur des systèmes d’information selon Louis Naugès

par Pierre Magnenat, gestion & prospective, Ci-UNIL

Un résumé du séminaire organisé en octobre dernier par CapGemini sur l’avenir de l’informatique.

Cet article ne représente pas l’avis du Centre informatique de l’UNIL sur la question : il s’agit du point de vue assumé et argumenté du célèbre Louis Naugès.
10_nauges
© Tom Wang – Fotolia.com

Introduction

CapGemini organisait en octobre dernier un séminaire intitulé « Systèmes d’information : les 3 prochaines années » animé par Louis Naugès. Titulaire d’un diplôme d’ingénieur et de deux MBA, Louis Naugès est connu comme le loup blanc depuis plus de 30 ans dans le monde de l’informatique: auteur d’articles souvent provocateurs et rafraîchissants dans le défunt 01 Informatique (note pour les anciens : eh oui, il n’y avait pas que le Zévar de la dernière page…) et ses successeurs, créateur du néologisme « bureautique » à la fin des années 70, il n’a rien d’un nostalgique du bon vieux temps. Il serait plutôt du genre à retourner la table dès son entrée dans une salle de poker, bousculant les idées reçues, animé d’une indépendance sourcilleuse et très attentif aux changements profonds que peuvent amener les évolutions technologiques et sociales en cours. Outre son activité dans ses séminaires, articles et conférences, il dirige la société Revevol (pour révolution-évolution), qui a pour ambition d’aider des entreprises à faire passer leur système d’information à l’ère du Cloud. On peut lire ses réflexions régulièrement sur son blog.

10_nauges_photo
Louis Naugès, octobre 2013 © Pierre Magnenat

Etat des lieux

Un certain nombre de constatations amènent Louis Naugès à la conclusion que nous sommes à l’aube d’une véritable « révolution industrielle informatique » (ou R2i) qui va provoquer des ruptures profondes dans la gestion des systèmes d’informations des entreprises, petites ou grandes :

Les infrastructures techniques
La progression des performances techniques ne se ralentit pas : processeurs plus rapides, mémoires plus grandes, encombrement de plus en plus petit, réseaux plus rapides. Communément et abusivement appelée « loi de Moore », cette conjecture commune qui veut qu’une quantité mesurant une performance dans le domaine IT double tous les 18 mois pour un prix à peu près équivalent continue à se vérifier, et continuera à l’être au moins dans les 5 à 10 ans qui viennent. Ces progrès banaliseront des applications actuelles et permettront l’émergence de nouveaux usages. Un exemple : une offre récente pour équiper en réseau Wi-Fi une usine de 100’000 m2 revient à 1€/m2, soit 30 fois moins que la moquette…

Les cibles de l’innovation
Pendant longtemps, l’innovation informatique arrivait d’abord dans les entreprises. Le PC domestique était souvent un poste obsolète récupéré au travail. Depuis 10 ans, la situation s’est inversée et c’est le grand public qui en bénéficie d’abord. En termes de marché, le résultat en est que l’informatique d’entreprise ne pèse plus que 15% du gâteau du PC. Les particuliers sont souvent frustrés, soit en tant que clients d’une entreprise, soit en tant que collaborateurs, de la ringardise des solutions qui leur sont offertes. Les entreprises n’ont donc d’autre choix que de s’adapter à cette nouvelle donne. Le temps est fini où on pouvait imposer à ses collaborateurs un type fixe de PC, équipé d’une version obligatoire de Windows. Egalement terminée l’époque où je devais disposer impérativement de Internet Explorer 6 pour accéder à mon compte client.

La mobilité
L’explosion de l’usage des smartphones depuis 2007 et des tablettes dès 2010 a bouleversé la répartition des types d’objets connectés aux systèmes d’information : d’un quasi monopole Wintel nous sommes passés à un marché très diversifié, où iOS, Android, Chrome OS et bientôt Firefox OS ont un rôle important à jouer. C’est un défi pour les entreprises, qui doivent se réorganiser et sortir de leur monoculture. Pour éviter d’avoir à développer une application pour chacun des OS, la meilleure solution semble être de ne développer que des solutions en standard HTML5 tournant sur un navigateur.

Les infrastructures logicielles
Longtemps, ce qu’on a appelé les « bonnes pratiques » de la gestion d’un SI visait à l’unicité des solutions et à leur « intégration ». Cela nous a conduit à équiper tout le monde d’un PC obèse, équipé d’une suite bureautique dont, à de rares exceptions près, chacun n’exploite que le 10% des possibilités. C’est ainsi que pour écrire le présent texte, j’utilise une suite de plusieurs GB, alors que le Word qui tenait sur une disquette il y a 20 ans m’aurait permis d’écrire le même texte. Mais, unicité et compatibilité obligent, je dois opérer les migrations, migrations qui sont pour les informaticiens d’entreprises de véritables cauchemars. De même, ces « bonnes pratiques » ont débouché sur le développement de projets mammouth basés sur des ERP (Enterprise Ressource Planning, comme SAP, PeopleSoft ou Oracle) dont le prix est élevé, la mise en œuvre lourde et le taux d’échec est relativement élevé.

La question financière
Ces gros équipements matériels et logiciels doivent être régulièrement renouvelés, ce qui représente pour les entreprises de gros investissements en capital (CAPEX). Or les financiers préfèrent l’OPEX, ou dépenses de fonctionnement, pour les activités qui ne représentent pas une plus-value directe pour le cœur de métier de l’entreprise.

L’émergence des « clouds publics »
De nombreuses entreprises (dont les plus importantes sont Google, Amazon, et Microsoft) offrent désormais des solutions cloud. Déjà très prisées par le grand public, que ce soit pour la messagerie, le stockage de photos ou de vidéos, la bureautique et le partage de documents, elles attirent de plus en plus d’entreprises, tant pour l’infrastructure (IaaS, Infrastructure as a service) que pour les solutions logicielles (SaaS).

La révolution industrielle informatique (R2I)

Au début du 20ème siècle, pour avoir une voiture, il fallait passer par une succession d’étapes artisanales pour la construire (le moteur chez X, le châssis chez Y, et la carrosserie chez le forgeron du coin), puis engager un chauffeur/mécanicien pour la faire fonctionner. On disposait alors d’un véhicule sur mesure jusque dans ses moindres détails, mais d’un coût très élevé et après un délai considérable.

L’industrialisation de la construction automobile, avec la Ford T pour premier exemple, a permis de réduire drastiquement les coûts et délais, au prix bien sûr, tout au moins à ses débuts, d’une standardisation des modèles disponibles (vous avez le choix entre noir et noir!).

De même, une entreprise, par exemple textile, voulant actionner des machines devait créer sa propre électricité, au prix de lourds investissements dans un domaine n’étant pas son cœur de métier. Cette installation devait être dimensionnée pour absorber des pics de consommation occasionnels, et était donc surdimensionnée pour son usage habituel.

Là aussi, l’industrialisation de la production d’énergie a bouleversé les usages : l’entreprise peut se concentrer sur son métier, et achète l’énergie au réseau en fonction de ses besoins.

Louis Naugès établit une analogie entre ces exemples et le cas des systèmes d’information des entreprises, et observe que nous sommes au début d’une révolution similaire : l’ « énergie informatique » fournie par les serveurs de nos datacenters internes pâtit des mêmes défauts que l’électricité produite par l’entreprise textile de 1910. L’industrialisation va consister à se fournir en puissance de calcul auprès de très gros centres de calcul comme ceux d’Amazon ou Google, équipés de plusieurs millions de serveurs. Les avantages en sont énormes : finis, les investissements lourds dans des dizaines de serveurs et des salles (mal) sécurisées, fini le surdimensionnement prévu pour des pics de consommation annuels ou mensuels, finis les patches, migrations, opérations de maintenance. On paie ce qu’on consomme, et on consomme au moment où on en a besoin, tout cela pour un coût considérablement plus bas. Par exemple, une instance Windows de base sur un serveur chez Amazon Web Services coûte environ 10 centimes l’heure…

Quant à l’analogie avec l’industrialisation de la construction automobile, elle nous conduit à revoir complètement notre manière d’envisager les projets informatiques : jusqu’à maintenant, lorsque les métiers désirent « informatiser » l’une ou l’autre de leurs activités, ils créent un comité de projet qui rédige un cahier des charges. Ce cahier, qui est souvent la réunion des souhaits de chacun des membres du comité, est ensuite transmis au comité exécutif qui découvre alors le plus souvent qu’il doit délivrer un mouton à 5 pattes, tête bleue et queue vert clair, si possible pour hier, et sans qu’un budget soit déjà établi. Pour approcher un tant soit peu les désirs des métiers, les informaticiens devront soit s’atteler à un développement sur mesure long et coûteux de cet objet unique au monde, soit essayer de l’intégrer dans un ERP comme SAP, au prix de multiples paramétrages tout aussi coûteux et dangereux pour la réussite du projet.

C’est la démarche pilotée par la demande. Louis Naugès propose de la remplacer par une démarche pilotée par l’offre, qui est celle utilisée universellement dans le monde industriel : si j’ai besoin d’une nouvelle voiture, je ne vais pas écrire de cahier des charges décrivant la totalité de mes désirs. Je vais définir mes besoins essentiels, par exemple, si je vais fréquemment avec ma grande famille, un 4×4 capable de transporter 7 personnes, et je vais voir ce qui existe de tel sur le marché. J’aurai ensuite le choix entre différents véhicules remplissant ces conditions de base, et je me déciderai en fonction des équipements additionnels et des moyens dont je dispose. Dans notre exemple, je pourrai choisir entre, disons, un Nissan Qashqai à 35’000.- et un Audi Q7 à 80’000.-. Dans l’un et l’autre cas, je pourrai demander des options spécifiques, mais il ne me viendra pas à l’esprit de demander à Nissan de me livrer un Qashqai équipé de la boîte à vitesses du Q7.

Dans le cas des systèmes d’information, cette démarche pilotée par l’offre est rendue possible par la R2I et les offres industrialisées SaaS : les clients métiers expriment auprès du service informatique les grandes lignes de leurs besoins et leurs attentes. La DSI peut rapidement retourner les voir et présenter des solutions SaaS opérationnelles qui correspondent raisonnablement aux demandes exprimées, avec les avantages, les inconvénients et les coûts de chaque option. Une fois la solution choisie, il restera à la configurer, grâce à la collaboration du service métier et du service informatique. L’avantage d’une telle solution industrielle est qu’on en connaît à l’avance les performances et les coûts, et que sa mise en œuvre sera plus rapide que dans l’approche classique.

Evidemment, cela implique que le service informatique de l’entreprise bénéficie d’une connaissance approfondie des offres existantes, pour pouvoir proposer des solutions qui répondent aux besoins exprimés et s’inséreront harmonieusement dans l’ensemble du système d’information existant.

Pour toutes les applications transverses d’une entreprise (comptabilité, RH, relation client, etc.) il existe de nombreuses solutions SaaS. On en trouve des listes par exemple sur Cloud Showplace qui en recense plus de 2000. Naturellement, il convient avant de les mettre en œuvre de bien négocier le contrat, particulièrement en ce qui concerne la sécurité et la confidentialité des données, ainsi que la garantie de réversibilité (pouvoir en sortir au besoin).

Le sur-mesure est-il mort ?

NON, pas du tout ! Au contraire, il doit être préservé, voire accentué, pour les activités qui constituent le cœur de métier de l’entreprise et qui assurent à ces dernières leur spécificité et leur différentiation par rapport à la concurrence.

10_nauges_schema1
La R2I schématisée, © Louis Naugès

La figure 2 montre comment Louis Naugès découpe en 5 étapes distinctes la R2I :

  1. Les applications transverses sont basculées vers des solutions existantes SaaS, ce qui élimine en passant 30 à 50% des serveurs internes
  2. Les développements internes sont basculés vers des solutions PaaS (Platform as a Service), ce qui offre aux développeurs en permanence la puissance dont ils ont besoin et ce qui élimine également quelques serveurs.
  3. Pour les applications constituant le cœur de métier de l’entreprise, une partie peut être basculées en IaaS.
  4. Certaines applications ne pourront pas être basculées en IaaS. Pour celles-ci, on conserve un centre de calcul privé, ou on fait appel à un hébergeur de systèmes.
  5. Des mainframes vont quand même subsister dans l’entreprise.

L’informatique du futur selon Naugès

Les postes de travail, les usages, les réseaux et les serveurs seront impactés par cette R2I.

L’utilisateur se connectera au moyen d’un poste, le plus souvent mobile, équipé seulement d’un navigateur, mais suffisamment puissant pour faire tourner dans ce navigateur des applications HTML5 qui pourront être très gourmandes en calcul. L’ensemble des applications auquel il se connectera sera structuré sur une logique de composants interconnectés mais indépendants, et non plus sur des progiciels ou des suites très lourds et difficiles à gérer, surtout lors des changements de versions. La plupart de ces applications seront en mode SaaS.

Il pourra se connecter n’importe quand et depuis n’importe où (Louis Naugès est persuadé que la concurrence viendra à bout des tarifs exorbitants pratiqués par les opérateurs pour le trafic des données). Les réseaux internes des entreprises se seront libérés des solutions propriétaires classiques par le déploiement de SDN (Software Defined Networks) open source. La communication sera unifiée (voix, messagerie, données, vidéo) autour du standard Web RTC.

Les serveurs auront dans leur majorité disparu des entreprises, remplacés par une location flexible de puissance et d’espace de stockage auprès des grands fournisseurs que seront Microsoft Azure, Google CE et Amazon WS. Si c’est déjà le cas pour de nombreuses PME, pour lesquelles le coût de gestion de quelques serveurs est prohibitif, des poids lourds s’y sont aussi déjà mis : Netflix, le leader de la Video on demand (et producteur de l’excellente série House of Cards) consomme 1 milliard d’heures de calcul par mois sur le cloud d’Amazon !

Ces prévisions, si elles se confirment, ne vont pas faire que des heureux : les vendeurs de serveurs et les éditeurs de solutions « lourdes » pourraient en pâtir sérieusement. Certains l’ont bien compris, qui risquent de devoir trouver d’autres sources de revenus : Microsoft investit à marche forcée dans son cloud Azure, et SAP qui a lancé son projet Fiori, visant à permettre l’accès aux fonctions essentielles de ses solutions en mode HTML5 sur un simple navigateur.

10_nauges_schema2
La migration en cours, principal défi des services informatiques ces 5 prochaines années © Louis Naugès

La figure 2 illustre cette (r)évolution. A noter que le rectangle en bas à droite, appelé parfois cloud privé, n’est pas une bonne idée, privant l’entreprise des améliorations majeures que sont le transfert au cloud des investissements (CAPEX -> OPEX) et de la gestion des infrastructures, et de la qualité « mono-instance » du cloud public.

Sécurité, confidentialité

Ce sont les questions qui viennent à l’esprit immédiatement lorsqu’on parle de cloud. Louis Naugès considère que bien sûr le risque zéro n’existe pas, mais que nos données sont mieux protégées cryptées dans un cloud public que non cryptées dans un pc portable ou sur une clé USB ; une étude de Ponemon Institute a montré que chaque SEMAINE, 12’000 laptops professionnels sont perdus ou volés dans les aéroports américains, 55% d’entre eux comportant des données non sécurisées… Ce nombre serait de 900 par semaine à Londres et 750 à Paris.

Quant aux inquiétudes suscitées par PRISM et la NSA, il fait remarquer que tout le monde espionne tout le monde depuis des lustres et que si des « backdoors » existent chez les grands acteurs du cloud, elles existent certainement aussi sur tous les commutateurs de réseau traversés par nos données dès qu’elles y pénètrent. Il recommande aux plus inquiets l’usage de méthodes avancées de chiffrement, comme Ciphercloud.

Cette peur instinctive de cloud lui a inspiré un article amusant intitulé « Néphophobie » (=peur des nuages).

L’impact de la R2I sur les métiers de l’informatique

De tels bouleversements ne seront pas sans effet sur les métiers et les emplois de l’informatique.

Dans les infrastructures, les meilleures opportunités se trouveront dans leurs aspects logiciels, majoritairement en open-source. Louis Naugès résume ainsi ses conseils : pour faire carrière dans le domaine des infrastructures après 2020, un ingénieur devra choisir une communauté open-source et travailler en priorité chez un fournisseur de solutions. Il devra être très bon, car la médiocrité ne pardonne pas dans ce milieu.

Dans les applications, l’avenir se trouve majoritairement chez les éditeurs de logiciels SaaS. Mais les grandes entreprises utilisatrices auront également besoin de développeurs spécialisés pour leurs coeurs de métier. Ces développeurs devront avoir des compétences doubles, technique ET métier.

Dans les services, toutes les grandes organisations auront encore besoin d’informaticiens, internes ou externes.

Les tendances générales sont les suivantes :

  • Le marché de l’informatique sera industrialisé, seuls des ingénieurs très professionnels y auront leur place.
  • Les emplois se trouveront en majorité chez les fournisseurs de solutions, ainsi que dans les grandes organisations.
  • Le nombre des professionnels de l’informatique va diminuer de 50% d’ici à 2021.

Dans les TPE et PME, seuls quelques métiers de service (helpdesk, choix des partenaires, ..) subsisteront : les serveurs y auront disparu, et le 100% de leurs applications seront en SaaS.

Les fonctions « artisanales », à faible valeur ajoutée, dans les grandes DSI ou les grandes SSII auront disparu.

L’impact sur le management de l’informatique

Là aussi, de profonds changements sont prévisibles. Louis Naugès suggère de remplacer la signification de DSI (Direction des Systèmes d’Informations) par « Direction des Services d’Information » : la DSI devra en effet de plus en plus fournir des services, plutôt que des systèmes. Ces services seront en majorité achetés, et en partie construits sur mesure.

Dans le cadre des démarches pilotées par l’offre et non plus par la demande, la DSI devra accentuer sa force de proposition auprès des métiers, par une meilleure connaissance des solutions disponibles sur le marché pour tel ou tel processus métier. Il lui reviendra d’aller voir les métiers pour leur suggérer de nouvelles solutions dont elle aura préalablement testé la bonne symbiose avec l’existant. Sinon, elle risque fort d’être décrédibilisée auprès de ses clients internes, et surtout de se voir imposer des solutions que les métiers auront choisies sans se préoccuper de leur conformité avec l’ensemble des services de l’entreprise.

Une de ses nouvelles fonctions sera celle d’un « agrégateur de solutions » : ce sera la clef de la bonne intelligence entre les différents composants installés.

Conclusion

Tirée du Prince de Machiavel :

« Les innovateurs se créent des ennemis de tous ceux qui bénéficiaient du système ancien et ne disposent que d’un soutien « mou » de ceux qui pourraient bénéficier du nouveau système. »