Technologies

La fin du bon temps de la Loi de Moore

La fin du bon temps de la Loi de Moore

L'évolution des technologies se heurte aujourd'hui à des barrières physiques. Pour répondre à la croissance des besoins de puissance de calcul, des nouvelles stratégies techniques sont nécessaires pour éviter d'être restreint par la disponibilité limitée de l'énergie électrique et le coût de celle-ci.

PublicitéQuels sont les effets de la croissance des besoins en puissance de calcul, et notamment de la multiplication des datacenters géants ? La puissance installée dans certaines industries croit de manière plus rapide que la croissance de la puissance disponible par l'application de la Loi de Moore. Si on se base sur le Top 500, le différentiel dans l'informatique scientifique est d'un facteur 3 ! Il est probable que la barrière du Pétaflop (c'est à dire les 1015 opérations par seconde) sera franchi dans un centre de calcul en 2008 en mettant en oeuvre 100 000 processeurs en parallèle. Aujourd'hui, la croissance de puissance de calcul ne peut répondre aux besoins qu'en accumulant des processeurs. Cela implique un grand changement dans la structure du financement de cette croissance : jadis, c'était aux fabricants de processeurs (comme Intel) d'investir pour accroître la puissance unitaire de chaque processeur ; comme c'est actuellement insuffisant, c'est désormais aux usagers à acheter toujours plus de processeurs et donc à financer cette croissance. Bien entendu, la valeur ajoutée d'un constructeur (comme Bull), c'est de savoir accroître la puissance au delà du gain de puissance fourni par le seul processeur. Pourquoi la question énergétique apparaît-elle aujourd'hui comme essentielle alors que personne ne s'en préoccupait il y a quelques années ? Si la question énergétique apparaît maintenant, c'est simplement parce que nous quittons le « bon temps » de la Loi de Moore... en plus des nouvelles considérations environnementales. La véritable formulation de la Loi de Moore, c'est la division par deux tous les dix-huit mois de la quantité de silicium nécessaire pour construire un même nombre de transistors. La diminution de la taille des transistors implique que le coût de construction des usines pour les fabriquer explose. Et cela implique également d'augmenter la fréquence pour diminuer la consommation électrique mais, avec comme autre conséquence, une plus grande déperdition thermique (donc une croissance des besoins en climatisation). De plus, la proximité croissante des transistors dans un processeur a des effets secondaires qui ne peuvent plus être négligés comme des problèmes de dissipation thermique ou d'interférences. Les fréquences ne peuvent donc plus augmenter autant, un plafond devant être atteint avec les 10 GHz. Consommation et dissipation de chaque processeur devraient avoir tendance à se stabiliser. La réponse des fondeurs, c'est de ne plus augmenter la fréquence mais de passer par de nouveaux choix technologiques comme le multicoeur. Aujourd'hui, nous en sommes au maximum à 12 coeurs. D'ici 2012, nous devrions atteindre les 80 coeurs dans un seul processeur. Concrètement, qu'est-ce que cela implique pour une entreprise souhaitant mettre en oeuvre ou utiliser un centre de calcul ? Jadis, la ligne « énergie » n'apparaissait pas dans les budgets informatiques. Aujourd'hui, cela n'est plus possible : on dépasse souvent les 30% ! C'est à dire que pour un amortissement de matériel de 1 euro, vous avez 0,50 euro de frais pour l'alimenter. Selon IDC, on atteindra bientôt les 0,70 euros d'énergie par euro d'amortissement de matériel [NDLR : L'amortissement correspond au rapport entre l'investissement initial et le temps d'utilisation de cet investissement]. Un centre de calcul de 100 000 processeurs, avec les mémoires, la climatisation, etc. c'est une consommation comprise entre 5 et 10 MW. C'est à dire la puissance totale fournie par une ligne à haute tension ! Il y a huit ans, un serveur de grande diffusion consommait 35 W. Aujourd'hui, c'est presque dix fois plus puisqu'un serveur bi-socket x86, de plus en plus banal, consomme près de 250 W. Selon certaines études, les quatre principaux moteurs de recherche Internet (Google, Yahoo, MSN et Ask) utilisent deux millions de processeurs et consomment l'équivalent de la ville de Las Vegas en 2006, soit l'équivalent d'une centrale nucléaire complète. Il faut compter environ 40% pour les processeurs et les mémoires, 30% pour la chaîne d'alimentation (transformateurs...) et 20% pour le refroidissement. Au delà du problème financier, de plus en plus d'utilisateurs rencontrent donc des contraintes liées à la fourniture même d'électricité. Dans certaines régions, il est simplement impossible de disposer de quantités suffisantes d'électricité avec le niveau nécessaire de garantie d'approvisionnement (ce qui peut impliquer une double alimentation provenant de deux centrales différentes avec deux lignes à haute tension différentes). Au sein même du centre de calcul, il y a des grandes améliorations à faire dans l'installation électrique. Quelles stratégies sont mises en oeuvre aujourd'hui pour répondre à ces défis ? Google songe, dit-on, à s'installer au Canada, là où l'on trouve de nombreux barrages hydroélectriques et un climat plus froid qui facilite la climatisation des salles de serveurs. C'est une stratégie similaire qui avait fait se multiplier les très consommatrices usines d'aluminium dans les montagnes dans les années 1950... Selon une étude publiée en février 2007 par Jonathan G. Koomey du Lawrence Berkeley National Laboratory et de l'Université de Stanford, la consommation des serveurs installés dans le monde a doublé entre 2000 et 2005, passant de 6,7 à 14 GW, soit l'équivalent de 14 centrales nucléaires. Un nouveau doublement est attendu dans les cinq prochaines années. Pour les entreprises ordinaires, une réponse peut être d'externaliser leurs centres de calcul en les mutualisant à des endroits où l'énergie est disponible et où il peut être plus facile d'assurer le refroidissement. Il y a également, c'est certain, des gains importants à faire dans le refroidissement et la chaîne d'alimentation. Mais, avant même cela, il y a des « fruits faciles à cueillir » comme disent les anglo-saxons. Les entreprises n'accepteront bientôt plus que des serveurs soient utilisés à moins de 10% de leur puissance, ce qui impliquera de les réorganiser pour éviter le gâchis. Il faudra donc banaliser les serveurs pour pouvoir facilement mutualiser les ressources, consolider les infrastructures et recourir aisément à la virtualisation. On ne peut plus accepter une logique de déploiement du type « une application, un serveur » même si celle-ci avait la grande vertu d'éviter des interdépendances techniques entre systèmes différents. Y aura-t-il des impacts sur l'industrie du logiciel à une époque où les systèmes, même de micro-ordinateurs, voient leurs configurations requises exploser sans, pour l'utilisateur, une valeur ajoutée accrue en rapport ? A terme, c'est évident, il y aura une refonte de l'industrie logicielle et des stratégies techniques employées. Déjà, dans les processeurs, il y a des interfaces pilotables par logiciels pour optimiser la consommation électrique du processeur en fonction de l'usage qui en est fait à un moment donné. Des travaux du MIT ont également montré qu'il y a des moyens de programmer qui permettent de diminuer la consommation d'énergie. L'industrie du logiciel ne pourra plus ignorer longtemps de tels travaux. Les spécialistes de l'embarqué ont déjà dû en tenir compte, avant les autres, car il était nécessaire d'accroître l'autonomie des appareils alimentés par de simples batteries. Leurs techniques vont devoir être généralisées. Une initiative existe sur le sujet autour de Linux, Lesswatts.org. Il est probable que, rapidement, des labels de qualité apparaîtront pour qualifier la consommation électrique des logiciels, un peu comme aujourd'hui ils existent pour les réfrigérateurs. Et à plus longue échéance ? Dans les vingt prochaines années, nous devront sans doute revoir profondément nos stratégies techniques, y compris en terme de logiques de travail. Par exemple, on peut souvent envisager de remplacer du calcul exact par le moins consommateur calcul probabiliste. On peut également adopter une méthode neuronale, au sens cérébral du mot : une très faible fréquence mais des milliards de noeuds. Aujourd'hui, les TIC représentent 2% de la génération de carbone dans le monde, c'est à dire à peu près autant que le transport aérien. L'« empreinte énergétique » de l'informatique est donc loin d'être neutre... Bien sûr, on peut espérer utiliser ces 2% pour diminuer les 98% restants grâce à de nouveaux usages comme le télétravail.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Mesurez-vous un ou plusieurs indicateurs pour suivre la performance du support IT ?