Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
💥 Du 22 au 24 novembre : Accès 100% GRATUIT
à la Bibliothèque Numérique ENI. Je m'inscris !
  1. Livres et vidéos
  2. Le cloud privé avec OpenStack
  3. Du mainframe au cloud
Extrait - Le cloud privé avec OpenStack Guide pratique pour l'architecture, l'administration et l'implémentation
Extraits du livre
Le cloud privé avec OpenStack Guide pratique pour l'architecture, l'administration et l'implémentation
1 avis
Revenir à la page d'achat du livre

Du mainframe au cloud

Une brève histoire de la genèse du cloud

L’informatique en nuage, ou cloud computing a une histoire complexe, tant il est difficile de vraiment en situer l’origine. Le cloud peut être retrouvé, même dès le tout début de l’informatique. Et si le cloud tirait son origine du mainframe ? Si mainframe veut dire capacité de calcul par lots, utilisation partagée de ressources de calculs, une interface simple, ou tout du moins simplifiée dédiée à l’utilisateur, il est facile de faire le parallèle avec la notion de Self Service qui est si chère au cloud.

Historiquement, le terme apparaît pour la première fois en 1997 à l’Université du Texas, à Austin. Ramnath Chellappa, éminent professeur d’informatique de ladite université, émet l’hypothèse que les limites de l’informatique ne sont pas techniques mais économiques. Qu’est-ce que cela signifie ? Simplement que les frontières de l’informatique seront désormais gouvernées par des considérations économiques sur du contenu technique déjà complètement établi et mature. La rationalisation des ressources et leur optimisation reviennent au centre des enjeux.

N’est-ce pas Amazon qui, dans les années 2000, lors de creux d’activités en dehors des périodes de fêtes, commence à louer ses serveurs à des entreprises extérieures pour en amortir le coût ? Exemple parfait, s’il devait y en avoir un, de ce nouveau paradigme. Cette contrainte économique lui a permis entre autres d’ouvrir au monde ses infrastructures, à coût d’innovations technologiques pour en garantir l’intégrité, et de devenir par la suite ce géant...

Le Replatforming en question

1. Pourquoi opter pour le cloud ?

Opter pour le cloud pour bénéficier de ses avantages de maîtrise d’usages et de coûts semble être une évidence pour une entreprise. Pourtant, autant il y a le paradigme économique du Pr. Ramnath Chellappa, autant il ne faut pas oublier que derrière le cloud, ce sont encore des technologies standards qui sont utilisées, même si c’est de moins en moins vrai avec l’avènement des conteneurs. De ce fait, un système d’information, plus précisément une application candidate au cloud, devra tout de même se conformer à certaines contraintes techniques. Elle devra être cloud ready.

Force est de constater que la plupart des produits logiciels, du marché libre mais surtout des éditeurs, ne sont pas cloud ready. C’est un constat un peu paradoxal étant donné que le cloud n’est pas là pour imposer un modèle d’architecture mais plutôt pour renforcer un modèle existant en le rendant plus flexible, plus scalable. Une application a alors toute latitude d’étendre et de réduire son stockage, au gré de ses besoins, de rajouter de la puissance de calcul à la volée en rajoutant et en décommissionnant des nœuds automatiquement, etc. Mais voilà, au départ toute application n’est pas forcément compatible avec ces capacités. Intuitivement, plus une application est stateless, plus elle est compatible cloud. Mais, il y a bien d’autres éléments à considérer que la simple intuition.

a. Le système d’information classique d’une entreprise

Dans une entreprise classique, il y a deux types de systèmes d’information qui prédominent.

Tout d’abord, des services...

Cloud et Big Data

1. Le Big Data

Depuis l’apparition de l’informatique, la technologie galope à une vitesse encore jamais vue. Aujourd’hui on fait face à l’explosion quantitative des données numériques. De tout temps, et depuis l’invention de l’écriture, l’humanité s’est efforcé de consigner les données, celles-ci voyageant entre les pensées et les livres. De nos jours, les sources de données n’est plus que la seule pensée et le stockage n’est plus que les livres. Mais si l’informatique a en grande partie résolu les problèmes de stockage, c’est la diversité, hétérogénéité et la multiplication des sources d’information qui a rendu très difficile l’analyse, le partage et la présentation de ces données.

Le terme Big Data est apparu pour la première fois en octobre 1997. Jusqu’alors, pour pouvoir analyser les données, il fallait les stocker dans un certain format, sous forme de tables dans des bases de données relationnelles le plus souvent. Avec les volumes de données actuels, cette opération de formatage et de stockage devient de plus en plus consommatrice de puissance de traitement. Le paradigme du Big Data est d’exploiter les données sans forcément se soucier de les structurer au plus près de la source.

a. Les 3 V du Big Data

Le Big Data est un concept polymorphe, qui prend une définition différente selon l’utilisateur dans son domaine de prédilection. Toutefois, des tentatives ont été faites pour théoriser et maîtriser le concept pour arriver à un consensus.

Ainsi, dans les années 2000 a été introduit le concept de 3V : pour...