Porteuses de l’ADN, de l’histoire et des secrets des entreprises, les données représentent également une mine d’or convoitée sur leurs clients et prospects, et toutes tremblent à l’idée de les voir divulguées Qu’elles aient ou non parachevé leur transition numérique condition sine qua non pour subsister en ces temps où absolument tout est dématérialisé, il est primordial pour les entreprises de les stocker au bon endroit.
.
De nombreuses entreprises ont fait le choix d’utiliser des solutions de stockage basées au sein de datacenters hébergés dans leurs murs. Ce modèle répond à la règle des trois tiers, avec d’un côté les serveurs, de l’autre le réseau de stockage, et enfin des baies de stockage centralisées et partagées en bout de chaîne. Si ce modèle de machines hébergées physiquement au sein même des entreprises peut rassurer à première vue, il entraîne une complexité rarement anticipée, et ce dès l’achat.
Les infrastructures étant basées sur le matériel avant le logiciel, il est nécessaire d’acquérir des machines volumineuses, aux incréments lourds, à remplacer à des rythmes réguliers calés sur une obsolescence rapide du hardware et sur des contrats de maintenance de trois à cinq ans. Ces contrats longue durée nécessitent de se projeter dans l’avenir et d’anticiper l’évolution des besoins sur cette période, avec un risque de sur ou de sous-provisionnement.
Une fois le risque évalué de façon prédictive, avec plus ou moins de justesse, le déploiement des infrastructures prend des semaines, voire des mois. Complexe et encombrant, il implique des constructeurs et éditeurs multiples qui doivent se coordonner pour pallier les éventuelles incompatibilités entre l’ensemble des acteurs concernés. Cette variété des intervenants occasionne une multiplication des interfaces d’administration, entraînant des problématiques de gestion quotidienne et de support ainsi que de maintenance, et altère la visibilité end-to-end.
En conséquence, il est difficile de faire évoluer l’infrastructure rapidement et facilement. Chaque ajout nécessite de revalider l’ensemble de l’infrastructure, avec les risques que cela implique pour la production. Pourtant, ces solutions traditionnelles sont basées sur des composants hardware propriétaires qui nécessitent d’être remplacés régulièrement pour supporter de nouvelles fonctionnalités.
Le cloud public semble apporter de nombreuses réponses aux points soulevés précédemment par les infrastructures traditionnelles. Agile, il permet le provisionnement de nouvelles interfaces, de nouvelles machines virtuelles, de nouvelles applications, en quelques heures et en quelques clics, sans nécessiter de compétences spécifiques. Grâce à son évolutivité, l’entreprise ne paye que ce qu’elle consomme au fur et à mesure, sans risque de sur ou de sous-provisionnement : l’infrastructure est illimitée. Enfin, il incombe à l’offre de cloud public, et non à l’utilisateur, de s’assurer de la résilience de l’infrastructure, des services et des données, qui sont ainsi toujours opérationnels.
Pourtant, s’il règle bon nombre des lacunes présentées par les infrastructures plus traditionnelles, le cloud public présente toutefois ses propres inconvénients, à commencer par son coût. Souvent intéressant au démarrage, le principe d’abonnement/consommation n’offre qu’une visibilité réduite sur la maîtrise des coûts à long terme. Et plus les besoins augmentent, moins le prix reste compétitif face à une infrastructure hébergée chez soi.
Par ailleurs, ce type de solutions n’offre qu’une sécurité relative : peu de contrôles sont effectués sur la géolocalisation des données et leur confidentialité, et il est difficile de maîtriser la performance et la polyvalence des applications utilisées.
Il existe donc un fossé à combler entre les infrastructures traditionnelles hébergées on premise et les offres de cloud public. Hébergée au sein de l’entreprise, basée sur des solutions hyperconvergentes, software-defined et respectant les concepts fondamentaux des architectures web scale, l’Entreprise Cloud s’impose comme une passerelle entre ces deux mondes. Elle conserve les avantages de chaque offre tout en éliminant ses inconvénients.
Les GAFA, nom donné aux géants du web – Google, Apple, Facebook, Amazon – ont été les premiers confrontés aux limitations des architectures traditionnelles, et à inventer une nouvelle façon de concevoir leurs propres datacenters, basée sur leurs propres compétences logicielles. Des centaines, puis des milliers de briques matérielles identiques, composées de simples cartes mères, de CPU, de mémoires et de disques, sont empilées, puis liées via une couche logicielle ajoutée sur chacune de ces briques pour les rendre intelligentes, c’est-à-dire conscientes de l’existence des autres briques au sein d’une grille de serveurs.
L’infrastructure hardware devient commune, interchangeable, n’a plus à répondre à des critères d’évolutivité pour ajouter de nouvelles fonctionnalités. Le matériel n’est plus propriétaire. C’est le logiciel qui gouverne à 100% : il suffit alors de faire une simple montée de version pour supporter dans le temps de nouvelles fonctionnalités. Le rôle du logiciel est ici majeur : il s’assure de la résilience des données et des services en les distribuant sur les différentes briques composant la solution. Chaque brique matérielle n’est qu’un composant dans un cluster ; la panne de l’une d’entre elles n’a aucun impact sur les performances et le système est conçu pour s’auto-réparer : les données et services se protègent automatiquement sur les briques restantes.
Il n’y a plus de limite d’échelle : l’entreprise achète ce dont elle a besoin à l’instant, et ajoute de nouvelles briques lorsque les besoins augmentent, de façon illimitée.. L’ensemble de l’infrastructure réduisant le nombre d’acteurs, tout se pilote depuis une seule et unique interface, et s’administre d’un simple clic, même pour des tâches normalement complexes.. De plus, il est possible d’orchestrer et d’automatiser l’ensemble des tâches, à la manière du Cloud Public. Cela permet à l’utilisateur de provisionner de nouvelles applications d’un simple clic, sans se soucier de l’infrastructure en dessous, qui devient alors pratiquement invisible.
Ainsi, l’Enterprise Cloud est un modèle de Datacenter qui fournit aux entreprises les bénéfices d’un Cloud Public sans compromettre les valeurs d’une infrastructure interne. Nous sommes entrés dans l’ère du Software Defined Anything (SD-X), qui permet aux entreprises de repenser de fond en comble la façon de concevoir leurs datacenters, de les transformer en solutions évolutives, simples, agiles, tout en maîtrisant leurs coûts.