Stratégie

Infrastructures 2021 : les clés d'un socle performant et évolutif

Infrastructures 2021 : les clés d'un socle performant et évolutif
De gauche à droite : Jacques Cheminat (rédacteur en chef du Monde Informatique), Bertrand Lemaire (rédacteur en chef de CIO) et Aurélie Chandeze (rédactrice en chef adjointe de CIO).

Le 9 février 2021, CIO a diffusé une webconférence « Infrastructures 2021 : les clés d'un socle performant et évolutif » en partenariat avec Cohesity, Darktrace, F5/Nginx, Nutanix, Pure Storage, Silver Peak et Veeam.

PublicitéAlors que le rythme des changements s'accélère, les entreprises ont un besoin croissant de flexibilité au niveau IT. Tandis que le développement se fait de plus en plus agile, que les applications se décomposent en multiples services indépendants, les infrastructures doivent elles aussi se moderniser pour accompagner ces évolutions. En quête de performance, les entreprises veulent également s'affranchir des limites des environnements matériels, en misant sur d'autres approches : cloud public, virtualisation ou modèles d'infrastructures-as-a-service sont autant de moyens pour apporter aujourd'hui l'évolutivité requise au niveau de l'infrastructure. Réalisée en partenariat avec Cohesity, Darktrace, F5/Nginx, Nutanix, Pure Storage, Silver Peak et Veeam, la webconférence CIO, « Infrastructures 2021 : les clés d'un socle performant et évolutif », diffusée le 9 février 2021, a permis d'aborder ces grandes tendances en cours, amenées à transformer durablement la manière de concevoir et de piloter les infrastructures. Au cours de cette conférence, plusieurs témoignages sont venus illustrer ces nouvelles stratégies : Christophe Pierre, directeur des plateformes et des ressources numériques de la Principauté de Monaco ; Philippe Toublant, chief data officer de Colas Digital Solutions ; Daniel Widera, directeur des systèmes d'information de Teréga et grand témoin de la matinée ; Nathanaël Zimero, chief information officer for equity markets & commodities chez Natixis CIB et enfin Élisabeth Humbert-Bottin, DG du GIP-MDS, avec Youssef Kilany, directeur de l'architecture du SI du GIP-MDS. Pour terminer, Alexandre Brianceau, directeur général de Rudder, a présenté sa solution de configuration continue, en partenariat avec MyFrenchStartUp. Le replay intégral de la conférence est disponible ici.


« Nutanix accompagne la modernisation de votre infrastructure » a indiqué Michel Touffet, directeur technique de Nutanix.

En ouverture, Michel Touffet, directeur technique de Nutanix, a rappelé que si les infrastructures portent les applications d'aujourd'hui, elles devront aussi porter les applications de demain. « Comment intégrer facilement de nouvelles applications sur mes infrastructures ? Voilà la grande préoccupation actuelle des DSI », a observé Michel Touffet. Ce constat est au coeur de la réflexion de Nutanix, qui a souhaité repenser complètement les infrastructures telles qu'elles sont conçues depuis 20 ans. « En tant qu'éditeur, nous considérons que l'avenir est plutôt logiciel que matériel : une mise à jour est le moyen le plus simple de faire évoluer une infrastructure dans le temps », a-t-il expliqué.

PublicitéMichel Touffet a ensuite présenté plus en détail l'architecture proposée par Nutanix. Sa base est constituée de serveurs x86, à laquelle l'on peut ajouter des petites briques en fonction des besoins : stockage, CPU, mémoire ou réseau. Une couche de virtualisation la complète. Au-dessus, Nutanix a développé un système d'exploitation qui englobe l'ensemble et permet de tout gérer de façon centralisée. À cela s'ajoutent un certain nombre de services unifiés, activables à la demande : sécurité, stockage objet, automatisation... Enfin, dans un monde hybride et multicloud, l'éditeur souligne l'intérêt d'avoir une seule plateforme d'administration, capable de piloter l'ensemble des services d'infrastructure, quel que soit le lieu d'exécution. À la clef, quatre bénéfices : l'évolutivité grâce au 100% logiciel, la scalabilité, l'ouverture et enfin la simplicité d'administration et de déploiement. « Une infrastructure qui s'adapte aux besoins, et non l'inverse », a résumé Michel Touffet.

Accélération de la transition vers le cloud

A sa suite, la rédaction a présenté trois enseignements issus de l'étude CIO « Comment bâtir des infrastructures capables d'accompagner les besoins actuels et futurs ? », en téléchargement gratuit. Les résultats montrent notamment un recours au cloud privé en hausse par rapport à début 2020, signe d'une accélération de la transition vers le cloud, voire étape vers le multicloud. Autre constat, la virtualisation s'installe progressivement au niveau du stockage, mais elle est encore émergente au niveau du réseau. Enfin, les entreprises n'hésitent pas à se tourner vers des technologies innovantes pour gagner en performance, le recours aux GPU commençant par exemple à se démocratiser.


« Simplifiez votre infrastructure et valorisez vos données » a plaidé Jean-Baptiste Grandvallet, senior system engineer chez Cohesity.

Les choix d'infrastructures ont un impact important sur la gestion des données. Pour illustrer ces enjeux, Jean-Baptiste Grandvallet, senior system engineer chez Cohesity, a choisi de s'appuyer sur un cas client. « Nos clients adoptent souvent une trajectoire pas-à-pas », pointe Jean-Baptiste Grandvallet. Dans son exemple, le client, un acteur du secteur de la défense, a commencé par un appel d'offres pour remplacer les solutions de stockage et déduplication de ses backups et traiter une partie des sauvegardes sur ses environnements NAS. La solution de Cohesity permettait de répondre à ces problématiques sans démultiplier les outils. Les critères importants étaient la simplification du management, la performance et l'optimisation du stockage, avec en ligne de mire l'idée d'avoir une solution pouvant répondre à plusieurs problématiques. L'année suivante, ce même client a profité de la polyvalence de la solution Cohesity pour l'étendre à toutes ses sauvegardes.

Selon Jean-Baptiste Grandvallet, quels que soient les environnements des clients, tous cherchent en priorité une capacité à adresser de nouveaux workloads, qu'ils soient on-premises, dans le cloud public, privé ou en multicloud. « L'important est d'avoir une interface unique pour piloter tous ces environnements, ce que permet la solution Helios », a souligné Jean-Baptiste Grandvallet. Il a ensuite abordé les aspects de sécurité des données, notamment face aux attaques par ransomware. Cela passe par trois volets : d'abord « la prévention, en évitant les accès réseau aux sauvegardes Cohesity, qui sont immuables et peuvent également être verrouillées pour empêcher leur suppression. » Via des partenaires comme Tenable, il est également possible de scanner les sauvegardes pour détecter des failles éventuelles. Le deuxième volet est la détection d'anomalies, à l'aide de technologies comme le machine learning. Le dernier point est bien entendu la capacité à restaurer les données si nécessaire, en trouvant le bon point de sauvegarde.


Christophe Pierre, directeur des plateformes et des ressources numériques de la principauté de Monaco, a expliqué comment Monaco a créé son cloud souverain avec AWS.

Comme pour des États plus grands, la Principauté de Monaco, petit pays de 2km², s'est posé la question de la souveraineté pour héberger son écosystème gouvernemental, alors même qu'elle mène un vaste programme de digitalisation. « La volonté d'avoir son propre cloud ne fait pas débat », a lancé Christophe Pierre, directeur des plateformes et des ressources numériques de la principauté. En tant qu'État, il était important pour Monaco de conserver les données et applicatifs sur son territoire, pour éviter d'être soumis à une juridiction étrangère. Dans ce contexte, celui-ci a choisi la solution Outpost d'AWS. « Elle nous permettait de bâtir une solution hybride, avec une partie opérée localement par un acteur monégasque, tout en disposant des services développés par AWS, aussi bien pour les institutions publiques que le secteur privé. »

L'ouverture de ce cloud souverain est prévue au premier semestre 2021. La solution est mise en oeuvre en collaboration avec l'AMSN (Agence Monégasque de Sécurité Numérique). « Nos clients disposeront de services à façon, en fonction de leurs besoins en matière d'intégrité, de confidentialité, de disponibilité des données », a expliqué Christophe Pierre. Des services pouvant aller jusqu'à la conteneurisation ou les appels de microservices, afin de bénéficier de la promesse du cloud en termes de flexibilité. Monaco prévoit notamment de porter sur ce cloud son jumeau numérique 3D pour gagner en fluidité. Pour assurer la redondance sur un espace restreint, Monaco a imaginé une e-ambassade, permettant à l'État et aux opérateurs d'importance vitale de sauvegarder leurs données. Enfin, si Monaco profite de la sécurité d'AWS, où tout est chiffré par défaut, les clés de chiffrement appartiennent quant à elles à l'opérateur Monaco Cloud ou aux clients eux-mêmes.


« Des infrastructures sécurisées grâce au Cloud Data Management » a présenté Stéphane Berthaud, senior director technical sales chez Veeam.

Le cloud a longtemps été géré comme un sujet à part, qui concernait peu les équipes infrastructures, selon Stéphane Berthaud, senior director technical sales chez Veeam. Avec le développement de l'hybridation, d'autres approches sont apparues. Le cloud a d'abord servi d'espace de débordement, pour certains environnements peu critiques, pour le stockage ou l'archivage, et progressivement, il a hébergé des applications plus critiques, parfois en partie sur des systèmes on-premises. Dans ce contexte, « les responsables infrastructures ont apporté leur savoir-faire », estime Stéphane Berthaud, notamment en matière de sécurité, de protection ou de reprise après incident, pratiques peu familières des équipes DevOps. « Il s'agissait d'appliquer les mêmes niveaux de service, les mêmes pratiques que ce qui existe dans les datacenters, dont le cloud ne peut s'affranchir : copies de données mises offline, déplacées d'un site à l'autre, techniques de PRA... »

Toutefois, les différences technologiques entre le cloud et les plateformes internes ont longtemps été un frein. « Nous avons développé des capacités de sauvegarde, protection de niveau égale entre ces différents environnements, ainsi que des passerelles permettant une mobilité entre ceux-ci », a détaillé Stéphane Berthaud. Ainsi, les entreprises peuvent pallier les problèmes de perte de connexion et d'accès sur l'ensemble de leurs environnements, en interne comme sur les clouds publics.


Philippe Toublant, CDO de Colas Digital Solutions, a détaillé comment le groupe Colas a optimisé son emploi du cloud pour ses besoins internes.

Filiale du groupe Bouygues, le groupe Colas intervient dans la construction de routes et matériels associés, ainsi que dans le secteur ferroviaire. Colas Digital Solutions est la filiale informatique du groupe. En tant que chief data officer, Philippe Toublant travaille sur la digitalisation des métiers du groupe et la construction d'une plateforme data, One Colas Data, destinée à consolider toutes ses données à l'échelle mondiale. Pour celle-ci, Colas a pris le parti d'être 100% cloud, notamment pour répondre à la dimension internationale du projet, avec de multiples localisations et langues. « Nous avons choisi la plateforme Azure de Microsoft, en mixant des briques Open source et des services Microsoft », a indiqué Philippe Toublant.

Pour celui-ci, le bénéfice premier de ce choix du cloud réside dans la scalabilité, un atout dans un projet Data où les estimations de capacités peuvent vite être dépassées. « Trois clics suffisent quand nous avons besoin de plus de puissance de calcul », a illustré le CDO. Autre avantage, la possibilité de faire de la consommation à la demande, par exemple en augmentant les capacités uniquement la nuit pour les traitements batch. « Si nous n'avions pas été sur le cloud, nous n'aurions pas pu monter aussi vite une infrastructure avec une petite équipe », a également souligné Philippe Toublant. Dernier aspect important, le fait d'avoir une plateforme sécurisée, toujours opérationnelle.


« Le flash : une technologie tout autant pertinente pour les sauvegardes » a argumenté Gabriel Ferreira, director systems engineering chez Pure Storage.

Connu pour ses offres sur le stockage primaire 100% Flash et son modèle Evergreen, Pure Storage a décidé de s'attaquer aux infrastructures de sauvegarde. « Celles-ci rencontrent un certain nombre de problèmes, comme les renouvellements cycliques d'infrastructures tous les 4-5 ans, pénibles pour les entreprises », a pointé Gabriel Ferreira, director systems engineering chez Pure Storage. L'idée est de mettre fin à ce mode de consommation avec une architecture évolutive.

Pour cela, Pure Storage a conçu des périphériques à base de mémoire haute densité nouvelle génération, les SSD QLC, qui selon Gabriel Ferreira ne coûtent pas plus cher que les disques mécaniques. Outre sa capacité à évoluer au rythme des besoins clients et sans interruption de service, l'intérêt de cette solution réside aussi dans une empreinte énergétique 10 à 15 fois moindre. Ces environnements accompagnent l'évolution des pratiques dans le temps. « Aujourd'hui les systèmes sont tournés vers la restauration rapide de gros volumes », a illustré Gabriel Ferreira, prenant le cas d'un CHU client. Enfin, ils permettent de mutualiser les environnements, par exemple pour le backup et l'archivage, en évitant « les collections de baies ».


Grand témoin de la matinée, Daniel Widera, directeur des systèmes d'information de Teréga, a expliqué la transformation par le cloud pour le business.

Opérateur de transport et de stockage de gaz naturel implanté dans le Grand-Ouest, Teréga travaille également sur de nouveaux gaz, comme l'hydrogène. « Nous cherchons aussi à contribuer à la transition énergétique, en mettant à profit l'atout principal du gaz, qui se stocke », a expliqué Daniel Widera, DSI de Teréga en introduction. Pour accompagner cette transformation, l'entreprise investit fortement, notamment sur l'informatique et le digital. Il y a quelques années encore, Teréga disposait d'infrastructures héritées d'un grand groupe industriel français, auquel elle était précédemment rattachée. « La société avait besoin de se réinventer » a pointé le DSI. Réfléchissant aux implications pour l'informatique, le département IT a identifié deux mondes : une partie industrielle sensible, avec une mission de service public, qu'il fallait sanctuariser et isoler du reste du système d'information, et une autre, centrée sur les données et le développement de services intelligents.

Pour celle dernière, l'entreprise a opté pour le cloud public, afin d'aller vers un monde plus sécurisé et industrialisé. « Nous n'étions pas dans l'optique de porter d'anciennes applications à l'identique. Nous sommes directement partis sur du cloud natif pour développer nos composants de base, pour bénéficier de tout ce qui fait la puissance du cloud, comme les microservices » a justifié Daniel Widera. Même sur les quelques services ayant fait l'objet d'une réingénierie, l'entreprise a mesuré des réductions de coûts d'un facteur 10 à 100, avec un niveau de performance sans comparaison. « Aujourd'hui la plateforme nous permet de faire des MVP en deux jours », illustre le DSI. Grâce à ces choix d'architecture, la scalabilité est automatique. « Notre critère était d'avoir le même niveau de performance que les applications grand public », a confié le DSI, citant Netflix en exemple. Des efforts importants ont également été menés pour acquérir et développer les compétences nécessaires sur ces environnements cloud.


« Le SD-WAN, l'infrastructure clé pour garantir les performances du Edge » a plaidé Pierre Langlois, regional sales director de Silver Peak.

« Toutes les entreprises aujourd'hui vont vers le cloud », a confirmé Pierre Langlois, regional sales director de Silver Peak. Toutefois, les architectures réseau actuelles ne sont pas prêtes pour le cloud. « Les entreprises avaient l'habitude de collecter le trafic Internet des succursales vers les datacenters », a-t-il rappelé. Avec les applications cloud, il faut désormais que ce trafic parte au plus tôt vers Internet, dès le premier paquet. Cela nécessite une décision intelligente et orchestrée au niveau local.

Cette gestion locale est facilitée par les fonctionnalités de provisioning automatique du SD-WAN. « Une fois connectés, nos boîtiers se configurent automatiquement depuis une console centralisée, là où seront les ressources informatiques », a illustré Pierre Langlois. Deuxième aspect important, l'automatisation, pour réduire les coûts et éviter les erreurs humaines. « Notre vision est d'aller vers un réseau autonome, capable de s'ajuster en temps réel, de façon préventive, grâce à des technologies d'IA », a ajouté Pierre Langlois. Enfin, la surcouche SD-WAN permet de faire abstraction de la connectivité, qui peut être changée sans avoir à tout repenser. Cela permet de mutualiser plusieurs liens, pour garantir la qualité d'expérience des utilisateurs. « Le réseau s'adapte en fonction des besoins du métier », a résumé Pierre Langlois en conclusion.


Nathanaël Zimero, chief information officer for equity markets & commodities chez Natixis CIB, a détaillé comment Natixis a optimisé son bilan carbone comme sa facture de puissance de calcul grâce à Qarnot.

Filiale du groupe BPCE, Natixis a quatre grands domaines d'activités : la banque de grande clientèle, la gestion d'actifs et de fortune, l'assurance et les paiements. Dans le cadre de ses activités sur les marchés, la banque a des besoins de calcul importants, à la fois pour produire des prix et métriques de façon régulière pour les opérateurs, et pour répondre à des besoins réglementaires. Deux types de besoins, certains très réguliers et d'autres récurrents, mais pas permanents selon Nathanaël Zimero, chief information officer for equity markets & commodities chez Natixis CIB. En termes d'infrastructure, les premiers besoins nécessitent des architectures pérennes, disponibles en permanence, pour lesquelles une infrastructure interne semble plus pertinente. En revanche, sur les autres, des solutions comme le cloud sont envisageables pour réduire les coûts.

Si la banque a travaillé avec plusieurs acteurs du cloud, pour ces calculs récurrents Natixis CIB a choisi de travailler avec Qarnot, pour plusieurs raisons. D'abord, leur dimension green, qui vise à réutiliser la chaleur produite par les machines pour le chauffage. « Il s'agit également d'un acteur français, un critère important pour des aspects réglementaires et de dépendance », a confié Nathanaël Zimero. Enfin, l'offre était intéressante en termes de coût. Selon le CIO, la latence inhérente à la distribution du calcul sur plusieurs environnements parfois distants n'a que peu d'impact dans ce cas d'usage, car il s'agit de calculs assez longs. « Nous allons de plus en plus vers ce type de solution, car nous avons des besoins croissants de calcul à la volée, tout en travaillant sur la diversification et l'optimisation de notre usage du cloud », a conclu Nathanaël Zimero.


« Avis de tempête : comment la cyber IA facilite la migration vers le cloud » a averti Hippolyte Fouque, directeur commercial, Darktrace.

Le passage vers le cloud, l'hybridation des infrastructures s'est traduit ces dernières années par une complexité croissante, a constaté Hippolyte Fouque, directeur commercial de Darktrace. L'une des conséquences a été de nombreux transferts de données vers d'autres localisations. Le périmètre des organisations a lui aussi changé, avec des collaborateurs travaillant de plus en plus depuis chez eux. Ces évolutions se traduisent par un manque de visibilité, un grand défi en termes de cybersécurité selon Hippolyte Fouque, évoquant un nombre de cyberattaques multiplié par 4 en 2020. « Seul un tiers des organisations surveillent leurs environnements cloud et SaaS », a-t-il pointé, les autres ayant perdu le contrôle de leurs données. Hippolyte Fouque a également souligné deux défauts des systèmes de sécurité natifs des environnements cloud : d'une part, ils induisent une multiplication d'outils, des silos difficiles à gérer par des équipes cyber déjà surchargées ; d'autre part, ces solutions se basent sur des règles prédéfinies. « Les menaces évoluent très vite, et des approches statiques ne permettent pas de s'en protéger », a prévenu Hippolyte Fouque.

Face à cela, l'intelligence artificielle conçue par Darktrace, par sa capacité à structurer et à trier l'information, permet aux équipes IT de se focaliser sur des éléments probants, comme l'a montré Hippolyte Fouque avec un exemple client. Elle se déploie rapidement sur l'ensemble de la chaîne numérique, du mail aux environnements on-premises, cloud et industriels. L'IA est également capable de répondre de façon autonome en cas de problème important. Elle peut investiguer sur demande et depuis peu, elle sait également rédiger des rapports en langage naturel. « Il n'y aura pas de transition numérique sans sécurité, et le meilleur allié des équipes, c'est l'IA », a résumé Hippolyte Fouque.


Élisabeth Humbert-Bottin, DG du GIP-MDS (à gauche), et Youssef Kilany, directeur de l'architecture du SI du GIP-MDS (à droite), ont témoigné comment ce GIP supervisait un SI distribué.

Créé en 2000, le GIP-MDS est un groupement d'intérêt public, qui travaille sur la simplification des démarches administratives des entreprises. « Notre site net-entreprises.fr est au service de la modernisation des déclarations sociales » a rappelé Élisabeth Humbert-Bottin, directrice générale du GIP-MDS. À partir de 2010, le GIP-MDS s'est vu confier la DSN (déclaration sociale nominative), un projet « éminemment numérique » selon la directrice générale. Pour ces missions, le GIP-MDS s'appuie sur un système d'information distribué, comme l'a expliqué Youssef Kilany, directeur de l'architecture du SI du GIP-MDS. La mutualisation en est l'un des principes maîtres. Le GIP travaille avec plus de 30 partenaires, remplaçant déjà 45 formalités. Chaque mois, plus de 2 millions de déclarants transmettent leur DSN, avec plus de 25 millions de lignes sur les salariés contenues dans ces déclarations. « Nous devons traiter ces informations dans une échéance très courte » a pointé Élisabeth Humbert-Bottin. « Tout doit être fait de manière sécurisée et sans heurts », a-t-elle insisté.

Dans ce contexte, le GIP avait plusieurs objectifs pour superviser les systèmes: prévenir les incidents ; réagir au plus près s'ils surviennent et enfin les analyser au plus vite. « Les outils de supervision en place sur les différents systèmes concernés ne permettaient pas d'avoir une vue d'ensemble. C'est pour cela que nous avons mis en place une solution d'hypervision » a justifié Youssef Kilany. Après plusieurs études, le choix s'est porté sur Splunk, pour sa capacité à gérer de gros volumes de données provenant de sources hétérogènes. « Dès qu'un incident se produit, nous pouvons cibler le bon interlocuteur », s'est réjouie Élisabeth Humbert-Bottin, appréciant aussi le temps gagné sur le diagnostic, dans un environnement où les causes peuvent être multiples : problème réseau, applicatif, anomalie d'exploitation, etc.


« Edge 2.0 : la clé d'un socle performant & évolutif » a montré Sébastien Weber, country manager France de F5.

« Les entreprises doivent gérer des infrastructures complexes, avec des SLA différents, des approches de sécurité différentes », a renchéri Sébastien Weber, country manager France de F5. Au-dessus s'ajoutent des applications aux profils différents, qui ne sont plus monolithiques. Pour accompagner les changements de modèles économiques des entreprises, celles-ci évoluent fréquemment, se conteneurisent, peuvent être distribuées entre plusieurs environnements, plusieurs cloud, ou encore appeler des APIs fournies par des partenaires.

Face à cette nouvelle donne, l'infrastructure doit être repensée. « La solution, c'est de permettre aux applications d'être au plus près des utilisateurs », a suggéré Sébastien Weber. Il s'agit de déployer les services applicatifs sur les points de présence qui garantissent la meilleure performance, et d'interconnecter ces différentes briques de façon sécurisée. Des besoins que F5 adresse à travers son approche Edge 2.0. « L'idée est de rationaliser les déploiements cloud, pour se créer son propre cloud hybride, aligné sur les besoins métiers », a expliqué Sébastien Weber.


Alexandre Brianceau, directeur général de Rudder, a présenté cette start-up proposant une plate-forme de Continuous Configuration.

Pour finir cette matinée, Alexandre Brianceau, directeur général de Rudder, a présenté sa solution de gestion d'infrastructures, en partenariat avec MyFrenchStartup.com. « L'objectif est de pouvoir gérer des infrastructures hybrides facilement, rapidement et de façon sécurisée », a indiqué Alexandre Brianceau. La solution couvre l'ensemble du cycle de vie des machines, depuis le provisioning jusqu'au maintien en conditions opérationnelles. Il s'agit de détecter et corriger rapidement des anomalies et de fournir une visibilité en temps réel à l'ensemble des équipes, voire à des auditeurs externes. Outre le fait que Rudder est une solution d'infrastructure-as-code française et open source, dans un domaine où les offres américaines dominent, sa valeur ajoutée vient de sa capacité à adresser plusieurs problématiques dans un seul outil : déploiement, MCO, tableaux de bord de sécurité...

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Vos principaux processus métier sont-ils cartographiés ?