L’industrie du hardware se penche sur l’efficacité énergétique des micro-processeurs

La « loi de Moore », du nom du chimiste américain G.E Moore, cofondateur de l’entreprise Intel, stipule en 1965 que le nombre de transistors placés sur des circuits intégrés de micro-processeurs double tous les deux ans. S’il est admis que cette loi atteindra prochainement ses limites, elle demeure jusqu’ici peu contestée, étant devenue le parangon de l’industrie informatique depuis les années 1970. Cette augmentation permanente du nombre de transistors signifie en pratique une augmentation de la puissance de calcul de nos ordinateurs, qui jusqu’à récemment allait de pair avec une augmentation « mécanique » de leur consommation électrique. Avec l’augmentation du prix des énergies et le développement des outils nomades, la réduction de la consommation de nos différents appareils équipés de micro-processeurs (ordinateur, tablette, smartphone) devient un enjeu commercial autant qu’environnemental.

Quelle efficacité énergétique pour les micro-processeurs aujourd’hui ?

Pour appréhender les progrès réalisés en termes de dépense d’énergie il convient de dissocier la consommation électrique d’un appareil de son efficacité. Tandis que la première est mesurée en Kwh, la seconde dépend du ratio performance-Kwh. De plus, au sein de ces équipements des distinctions sont à établir entre les composants. En effet, certains d’entre eux disposent de véritables gisements d’économie d’énergie.

C’est le cas pour les CPU (central processing unit ou micro-processeur). La loi de Moore a été confirmée par une étude réalisée par INTEL en 2009, IBM nuançant cette affirmation en soulignant que le volume de traitement des données numériques a été multiplié par 69 en 10 ans. Dans tous les cas, les parties s’accordent sur une augmentation vertigineuse de la puissance de calcul des CPU, qui impacte la quantité d’énergie nécessaire à leur fonctionnement.

Evolution de la consommation électrique des processeurs Intel, en constante augmentation depuis les années 1950

Source : ASSESSING TRENDS IN THE ELECTRICAL EFFICIENCY OF COMPUTATION OVER TIME, 2009

Les processeurs restent donc particulièrement énergivores comparativement aux autres composants d’un ordinateur. Leur consommation dépend de leur tension et de leur fréquence d’horloge (DVFS).  Elle est par ailleurs souvent évaluée en terme d’enveloppe thermique (thermal design power – TDP), soit la mesure de la puissance maximale que le système de refroidissement doit pouvoir assurer. Seulement le TDP n’est qu’un indicateur partiel, car il importe de prendre en considération la capacité de gestion d’énergie. A l’heure actuelle cette gestion est définie selon la troisième version des normes APCI (advanced configuration and power interface), qui permet notamment un ajustement affiné de l’alimentation et de la performance selon la demande effective.

Source: PCastuces.com

Bataille technologique autour de la sobriété énergétique des processeurs

La consommation énergétique représente à l’heure actuelle jusqu’à 40% des coûts d’exploitation d’un datacenter, infrastructure qui réunit un très grand nombre de processeurs. Face à ce constat, lié  à l’explosion du volume des données stockées en « cloud » (sur le réseau et non plus sur un disque local), les autorités européennes ont initié le projet Eurocloud qui vise à diviser par dix la consommation énergétique des serveurs présents dans les centres de données. L’UE mobilise ainsi 3,3 milliards d’euros complétés à 40% par des fonds privés pour développer une nouvelle technologie de processeurs, dits « multi-cœurs ».

Si plusieurs entreprises et centres de recherche européens ont été associés à cette initiative (ARM, Nokia, IMEC, EPFL, Université de Chypres), l’américain Intel, souhaitant préserver son leadership,  travaille une nouvelle génération dont l’enveloppe thermique serait réduite de 40 à 17 W grâce à une miniaturisation de la gravure. En terme d’efficacité énergétique, AMD, autre poids lourd du secteur, a choisi d’optimiser l’architecture même des processeurs en proposant des puces dites « hybrides » (APU : Accelerated Processing Unit), qui proposent une unité accolée au processeur principal chargée d’un calcul spécifique (graphisme, contrôle des périphériques…). Enfin, en décembre dernier, le britannique ARM a présenté à Paris un serveur qui fait évoluer la nature même du processeur, en modifiant l’ordre d’exécution des instructions qui lui sont soumises pour optimiser sa consommation.

Pour en savoir plus :

Bookmark and Share

About admin