Catégories
parts solar water heater

Crunch time: innovations dans la technologie des datacenters

Les centres de données – les moteurs de notre économie numérique – s’orientent vers les limites de la technologie existante. Jon Excell discute de certaines innovations technologiques pour les aider à répondre à notre demande insatiable d’information

centres de données
Le ralentissement observé de la loi de Moore est un moteur majeur de l’innovation. Fichier: sdecoret / stock.adobe.com

Si l’usine de cheminée fumante est un symbole physique puissant de la révolution industrielle, alors le centre de données – un temple de haute technologie bourdonnant, chargé de serveurs et en bits et octets qui supporte presque tous les domaines de notre vie – est peut-être son équivalent moderne. Et à une époque où notre demande de données croît de façon exponentielle, ces salles des machines de l’économie numérique n’ont jamais été aussi occupées.

Même avant la chute de la pandémie, notre demande collective de données était insatiable, mais au début du mois de mars, lorsque les entreprises du monde entier sont passées au télétravail; les relations humaines ont migré en masse vers le domaine virtuel; et le courant de divertissement est devenu une bouée de sauvetage pour les masses en quarantaine, cette demande était turbocompressée. Le rapport d’analyse du haut débit d’OpenVault montre une augmentation de 47% de l’utilisation d’Internet au cours du premier trimestre de 2020, tandis que les données des analystes immobiliers EG Radius Exchange indiquent une croissance correspondante des plans de construction de nouveaux centres de données pour répondre à cette demande croissante.

Il est clair que la dynamique économique de la pandémie ne peut être surestimée, mais la facilité avec laquelle de nombreuses entreprises et particuliers se sont adaptés à nos nouvelles circonstances est une illustration convaincante de la puissance des outils numériques à notre disposition. En effet, les dirigeants d’un certain nombre de secteurs (en particulier dans le secteur manufacturier) ont indiqué que la pandémie était le catalyseur d’une transformation numérique attendue depuis longtemps et qui augmente la productivité.

Pourtant, tout comme nous embrassons collectivement notre avenir numérique, on craint de plus en plus que les forces technologiques qui soutiennent cette révolution commencent à disparaître.

La loi de Moore, une observation du co-fondateur d’Intel Gordon Moore selon laquelle la puissance de calcul double tous les deux ans sans augmenter la consommation d’énergie ou le coût, est basée sur le doublement du nombre de transistors sur une puce tous les deux ans. Le phénomène dure depuis des décennies, devenant une sorte de prophétie auto-réalisatrice, mais avec des ingénieurs poussant de plus en plus contre les limites de ce qui est possible avec la technologie existante, la loi de Moore ralentit. Et les centres de données sont à la pointe de cette tendance inquiétante.

centres de données
Dans le centre de données Viborg de 45 000 pieds carrés d’Apple en Suède. Pomme

Aujourd’hui, on pense que les centres de données représentent deux pour cent de la consommation mondiale d’électricité, soit plus que le nombre total du marché britannique de l’électricité. Mais sans changement technologique fondamental, la demande croissante pour les services qu’ils fournissent devrait rapprocher ce chiffre de 15%, ce qui en fera l’un des plus gros consommateurs d’électricité de notre planète. Et s’efforcer de maintenir ce nombre aussi bas que possible, tout en améliorant les performances, est un moteur majeur de l’innovation technique.

Sans surprise, étant donné que le refroidissement représente jusqu’à 40% de la consommation d’énergie d’un centre de données, de nombreux efforts existants se sont concentrés sur le développement de techniques améliorées d’évacuation de la chaleur, soit par des améliorations des systèmes de refroidissement par air conventionnels entraînés par ventilateur; le développement de nouveaux réfrigérants plus efficaces; ou en appliquant des systèmes plus avancés qui font circuler le liquide de refroidissement autour des composants du serveur.

Outre les nouvelles approches actives du refroidissement, les développeurs explorent également activement les avantages de la mise en place de centres de données dans les régions les plus froides de la planète. En fait, un nombre croissant d’installations sont parsemées du cercle polaire arctique, où des températures moyennes de l’air basses peuvent aider à réduire les coûts d’exploitation.

Les ingénieurs ont même exploré les avantages de placer la technologie sous la mer, là où l’effet de refroidissement de l’eau de mer peut être exploité.

Il était une fois, une telle initiative, le projet Natick de Microsoft, disposait d’un centre de données de la taille d’un conteneur d’expédition qui travaillait sur les fonds marins au large des îles Orcades depuis 2018.

Développé principalement pour explorer le potentiel de construction de centres de données plus petits pour les communautés côtières éloignées, le projet a également exploré les avantages du refroidissement naturel de l’environnement sous-marin – et a utilisé une technologie initialement développée pour les sous-marins par un partenaire du projet, la société de défense française Naval Group. Le système conduit l’eau de mer directement à travers les radiateurs à l’arrière de chacun des 12 supports de serveur et retourne dans l’océan.

Le projet Natick de Microsoft a développé un centre de données de la taille d’un conteneur d’expédition installé sous l’eau au large des îles Orcades. Fichier: Microsoft

Ces dernières années, les énergies renouvelables sont de plus en plus utilisées pour alimenter les centres de données, et les géants de la technologie tels que Google, Facebook et Apple investissent d’énormes sommes pour garantir que leurs besoins énergétiques sont satisfaits par une énergie propre.

Par exemple, Apple a récemment annoncé son intention de construire deux des plus grandes éoliennes terrestres – 62 GWh chaque année – pour alimenter son centre de données de 45 000 pieds carrés à Viborg, en Suède. Les turbines soutiendront l’énergie fournie par l’un des plus grands panneaux solaires de Scandinavie, situé à Thisted, dans le nord du Jutland. La société a également récemment annoncé son intention de construire un centre de données ultramoderne de 400 000 pieds carrés dans la ville de Waukee, Iowa, qui fonctionnera entièrement à l’énergie renouvelable dès le premier jour.

Outre l’exploitation des énergies renouvelables, il existe un intérêt croissant pour l’utilisation de la chaleur résiduelle générée par les centres de données pour fournir de l’énergie aux systèmes de chauffage urbain. Cette idée a acquis une force particulière dans les pays scandinaves, où l’environnement est déjà répandu. Par exemple, à Stockholm, l’opérateur de réseau Stockholm Exergi dirige les efforts visant à attirer des centres de données dans la ville, où ils pourraient inclure un réseau de canalisations de chauffage et de refroidissement urbain existant de 2800 km.

Dans le titre de septembre de The Engineers – qui a exploré les efforts visant à utiliser l’eau géologiquement chauffée piégée dans les mines de charbon abandonnées du Royaume-Uni pour le chauffage urbain – Jeremy Crooks, chef de l’innovation de la Coal Authority situées à proximité Les mines de charbon britanniques abandonnées pourraient être utilisées pour «reconstituer» cette ressource géothermique prometteuse.

centres de données
Apple a récemment annoncé son intention de construire les deux plus grandes éoliennes terrestres dans son centre de données Viborg. Image Apple

Mais si toutes ces innovations peuvent jouer un rôle dans la réduction des coûts d’exploitation et dans la réduction de l’impact global des centres de données, elles ne peuvent pas surmonter les limites sous-jacentes des approches informatiques existantes. C’est pourquoi les plus grandes entreprises technologiques du monde investissent de plus en plus d’argent et de temps dans le développement d’approches fondamentalement nouvelles qui pourraient – espère-t-il – relancer la loi de Moore et remettre nos technologies numériques sur la voie d’une croissance durable.

L’un des domaines technologiques que les centres de données sont considérés comme particulièrement prometteurs est celui des réseaux optiques à croissance rapide, où la fibre optique est utilisée pour accélérer considérablement le flux d’informations tout en réduisant les besoins énergétiques.

Actuellement, malgré l’utilisation généralisée des fibres optiques dans d’autres domaines, les centres de données continuent d’utiliser des réseaux électroniques, où les informations doivent être converties en électrons à chaque fois qu’elles doivent être acheminées. Mais selon d’autres. Georgios Zervasu – professeur agrégé de systèmes de réseaux optiques à l’UCL – le remplacement de ces réseaux optiques pourrait conduire à d’énormes améliorations en termes de vitesse et d’efficacité. En fait, étant donné que certains composants optiques ne nécessitent aucune alimentation et n’ont donc pas besoin de refroidissement, la technologie pourrait, selon lui, réduire à terme la réduction globale de la consommation d’énergie jusqu’à cinquante pour cent.

Zervas a expliqué à l’ingénieur que le réseau optique offre également une solution aux problèmes de latence qui accompagnent la technologie existante. Actuellement, lorsque des données sont envoyées entre des serveurs au sein d’un centre de données, des commutateurs électroniques sont utilisés pour les envoyer en utilisant une approche dite de commutation de paquets, dans laquelle les données sont déchiquetées en plusieurs parties différentes, envoyées indépendamment via n’importe quelle route optimale, avant de les réassembler. destination.

Il n’y a rien à l’horizon qui utilise des méthodes électroniques conventionnelles pour suggérer que les choses iront mieux

Dr Georgios Zervas, UCL

Bien que cette approche soit un moyen efficace de transférer de grandes quantités de données, elle a ses limites, a déclaré Zervas. « Lorsqu’un paquet quitte le serveur, il n’est pas garanti quand il arrivera et il n’obtiendra pas toujours le même retard car il peut emprunter une route différente ou la route deviendra plus encombrée avec le temps. »

L’avantage d’utiliser l’optique, a-t-il déclaré, est que vous pouvez gérer un réseau proche de la vitesse de la lumière et utiliser des topologies plates (un saut peut vous emmener vers n’importe quel nœud de destination) pour mieux utiliser les technologies informatiques et de stockage existantes. «Les centres de données sont très mal utilisés. Par exemple, si le serveur dispose de 64 Go de RAM et de 8 processeurs cœurs, lorsque toute la puissance de traitement est utilisée, mais pas toute la mémoire, la mémoire inactive ne peut être utilisée par aucune autre application, elle est donc consommée. Ce que beaucoup de gens recherchent, c’est comment assembler un système à partir de blocs de construction – afin que vous puissiez avoir des blocs de mémoire, des blocs de processeur, des accélérateurs, de la mémoire, etc. Vous pouvez ensuite les connecter et créer n’importe quel type de système que vous aimez. « 

L’utilisation de réseaux optiques pourrait, a-t-il déclaré, contribuer à faire de cette approche une réalité, en utilisant au mieux les ressources du centre de données. Cela, a-t-il expliqué, permettra le développement de réseaux de neurones d’apprentissage efficaces et largement distribués qui ont été utilisés pour résoudre des problèmes dans divers secteurs, des soins de santé aux villes intelligentes en passant par des milliers de processeurs (c’est-à-dire GPU, CPU). Ils pourront former des systèmes capables de résoudre des problèmes énormes et complexes qui n’ont jamais été vus auparavant et de débloquer de nouvelles applications.

Zervas et ses collègues travaillent sur plusieurs projets visant à concrétiser cette vision.

Dans un projet récent, l’équipe a démontré un interrupteur optique ultrarapide capable d’allumer et d’éteindre la lumière (et les données) en seulement ~ 500ps (500 × 10 ^ -12 secondes), une étape clé sur la voie des réseaux optiques. Le groupe a également progressé dans sa capacité à basculer rapidement entre différentes fréquences de lumière – avec une technologie capable de basculer entre 122 longueurs d’onde en moins de 1ns. C’est la clé du développement d’un commutateur capable de communiquer avec plusieurs serveurs différents, a déclaré Zervas: «Si vous pouvez basculer entre les couleurs très rapidement, vous pouvez envoyer un paquet dans une couleur et un autre dans une autre couleur pour se déplacer vers un autre emplacement. L’autre défi est donc de savoir comment changer cette fréquence de lumière extrêmement rapidement.

centres de données
Image: Sashkin via stock.adobe.com

Les chercheurs de l’UCL se sont inspirés du monde naturel pour développer une méthode de contrôle des commutateurs IA afin d’accélérer le temps de commutation de 10 fois.

Dans un autre projet, les chercheurs de l’UCL ont développé un processeur de réseau personnalisé pour déterminer rapidement les itinéraires que prendraient les données et la couleur de lumière utilisée. «La dynamique du réseau du centre de données est très rapide – et vous devez prendre des décisions très rapidement», a déclaré Zervas. «Si vous prenez des décisions trop lentement, n’utilisez pas suffisamment le réseau, de nombreuses communications seront retardées et les performances informatiques et applicatives finiront par en souffrir.»

Le groupe a également réalisé des progrès significatifs dans le domaine de la synchronisation d’horloge, considérée comme l’un des principaux obstacles à la commutation optique.

Comme l’explique Zervas, les réseaux commutés électroniques actuels sont formés de commutateurs avec des connexions optiques et des émetteurs-récepteurs (émetteurs et récepteurs) entre eux. Les deux émetteurs-récepteurs de chaque côté de la connexion par fibre optique sont en communication continue, de sorte que leurs horloges peuvent être facilement synchronisées afin que les données puissent être correctement récupérées. Dans les réseaux optiques, un serveur peut recevoir des informations de nombreux autres serveurs rapidement et de manière transparente. Cependant, chaque émetteur-récepteur a sa propre horloge qui fonctionne à une fréquence et une phase légèrement différentes. Si deux horloges (horloge sur un serveur source et serveur de réception d’horloge) fonctionnent sur une fréquence légèrement différente et / ou sont déphasées (c’est la condition par défaut car les fréquences d’horloge ont plusieurs variations de Hz), alors le serveur de destination ne peut pas récupérer / recevoir correctement les données . Le défi est de savoir comment concevoir une méthode dans laquelle les horloges de tous les serveurs seront toujours synchronisées en fréquence et en phase afin que le serveur puisse correctement écouter et recevoir les données de tous les autres, et cette synchronisation peut être maintenue dans différentes conditions (telles que les variations de température des centres de données).

L’équipe de l’UCL explore un certain nombre d’approches différentes pour relever ce défi, y compris une nouvelle technique développée en collaboration avec Microsoft Research appelée « mise en cache de phase d’horloge » coordonnée par Zhixin Liu, un conférencier de l’UCL, qui synchronise des milliers d’horloges d’ordinateur en dessous d’un milliardième de seconde.

Bien que ces découvertes soient des étapes clés sur la voie du réseautage optique, il reste encore beaucoup à faire, a déclaré Zervas.

Mais s’il existe une certitude dans le monde incertain d’aujourd’hui, c’est que notre dépendance croissante aux données continuera de croître. Et tôt ou tard, cette force irrésistible va, a-t-il dit, forcer les technologies comme les réseaux optiques à se généraliser. «Il n’y a rien à l’horizon qui utilise des méthodes électroniques conventionnelles pour suggérer que les choses iront mieux. Les prévisions ne sont jamais faciles, mais je suppose qu’à partir de 2025, les choses deviendront plus sérieuses pour les fournisseurs de cloud qui passeront de l’électronique à l’optique, du moins dans certaines parties du centre de données.

« Cela doit arriver, c’est juste une question de quand, en fonction de l’analyse de rentabilisation et qui fera le premier pas pour influencer tout le monde. »