Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Quand le multicore affecte l’optimisation du logiciel

29 Janvier 2009 , Rédigé par Jean Michel Publié dans #Actualités Informatique


Processeur Intel Core 2 Quad Q9450(clone)
Selon une étude du cabinet Gartner, rapportée par le site XBitLabs, la tendance actuelle qui tend a doubler le nombre de coeurs au sein du processeur d'une machine finira par faire que les performances des puces surpasseront les capacités maximales prises en charge par les logiciels, notamment sur les serveurs des entreprises.

Carl Claunch, vice-président du cabinet d'analyse explique que beaucoup d'applications devront être mises à jour pour tirer un réel profit des configurations matérielles d'aujourd'hui et de demain. « C'est comme si l'on essayait de mettre un moteur de Ferrari dans un chariot de supermarché, les performances sont bien là, mais le châssis n'est pas optimisé pour en tirer réellement parti. », explique-t-il.

En moyenne, le nombre d'unités de calcul par processeur double tous les deux ans soit par l'augmentation du nombre de coeurs ou par des technologies comme l'hyperthreading, estime Gartner. Si l'on part du principe qu'en 2009, un serveur équipé de 32 processeurs à 8 coeurs permettrait de totaliser 256 unités de calcul, on atteindrait en 2011 512 unités de calcul (32 processeurs à 16 coeurs), puis 1024 en 2013.

Or à ce jour, la plupart des applications ne peut tirer profit de la totalité de 64 processeurs, conclut Gartner. Pour les analystes, la principale limite est documentée par l'éditeur et se trouve dans l'architecture même du logiciel qui devrait donc être amenée à évoluer. Cependant, Gartner souligne aussi qu'au travers de leurs expériences, certains administrateurs réseaux notent une baisse des performances générales de plusieurs applications au fur et à mesure que le nombre de processeurs augmente au sein du serveur.



Partager cet article

Commenter cet article