Source: BE Allemagne numéro 477 (1/04/2010) - Ambassade de France en Allemagne / ADIT

L'essor des technologies de l'information se traduit aujourd'hui par une exceptionnelle quantité de nouvelles données. Logiquement, le traitement de ces données nécessite donc de plus en plus d'énergie. Une équipe de chercheurs de l'Institut de Technologie de Karlsruhe (KIT) et de l'Université Goethe de Francfort-sur-le-Main a développé un nouveau procédé permettant de réduire la consommation énergétique lors du traitement d'importantes quantités de données. Ils ont par là-même battu le record du monde, jusqu'alors détenu par l'Université Stanford (Californie), en améliorant l'efficacité énergétique d'un facteur 3 à 4.

Ce record a été établi à l'aide de composantes à priori non conventionnelles pour ce type d'application. Au lieu d'utiliser un puissant processeur de serveur, très consommateur d'énergie, les scientifiques, sous la direction de Peter Sanders du KIT et d'Ulrich Meyer de l'Université de Francfort, ont opté pour un microprocesseur de type "Intel Atom", à l'origine développé pour les netbooks et donc très économe. La perte de puissance de calcul a été compensée par l'emploi d'algorithmes plus légers et plus efficaces. D'autre part, les disques durs, dont la mise en rotation nécessite beaucoup d'électricité, ont été remplacés par des "Solid-State-Drives (SSD)", plus rapides et moins consommateurs.

Les critères d'attribution de ce nouveau record du monde, établi dans le cadre du concours "Sort Benchmark" organisé par des experts d'entreprises telles que Hewlett-Packard ou encore Microsoft, reposent sur un problème clé de l'informatique: le tri de données. En effet, la gestion et l'exploitation des données, dont la quantité ne cesse de croitre, nécessitent la mise en place d'un traitement efficace et basé sur des critères bien définis et représentent ainsi un thème de recherche essentiel en informatique théorique aussi bien qu'appliquée.

Dans les trois catégories du concours, les solutions proposées par les participants devaient trier 10Go, 100Go et enfin 1To de données, composées de paquets de 100 octets. Pour la plus grande base de données, qui correspond à une pile de papier d'une hauteur de 10 km, le vainqueur n'a eu besoin que de 0,2 kWh, soit environ autant d'énergie qu'il est nécessaire pour faire bouillir 2 litres d'eau.