Les chercheurs du laboratoire San Diego Supercomputer Center (SDSC) affilié à l’université de San Diego, ont reçu une bourse de la part de la NFS répartie sur les deux prochaines années, d’un montant de 450.000 dollars. Leur but est d’améliorer l’efficacité du traitement de grands volumes de données échangées et accessibles sur les réseaux d’entreprises ou personnels via Internet. Les chercheurs tenteront d’exploiter une nouvelle infrastructure, connue sous le nom de "computing clouds" qui littéralement signifie "informatique en nuages".
Dans ce type d’architecture, les données sont réparties sur un nuage de machines, les centaines de milliers d’ordinateurs-serveurs dont disposent les géants du Web. Les informations étant enregistrées en plusieurs copies dans le nuage, il est possible de répartir les calculs afin d’éviter les congestions informatiques. Avec cette organisation qui fait coopérer les machines, chaque informaticien dispose d’une capacité de traitement largement supérieure à celle de sa propre machine, voire à la puissance des centres de calcul classiques des entreprises et des institutions.
La bourse attribuée par la NSF vient en renfort au programme Cluster Exploratory (CLuE) entrepris conjointement par IBM et Google, disposant d’énormes ressources en serveurs et en capacités de calcul. Associé à l’environnement de travail Apache Hadoop, un projet open-source développé par la Apache Software Foundation, le CLuE donne accès à un vaste champ d’exploration propice aux tests. Les chercheurs du SDSC devront étudier la faisabilité de ce type d’infrastructure et la comparer aux architectures plus traditionnelles comme le "parallel relational database management system (RDBMS)", plus structurées mais aussi plus statiques.
En premier lieu les chercheurs concentreront leurs tests sur l’application GEON LIDAR Workflow (GLW), issue d’un projet collaboratif financé par le NSF’s Information Technology Research (ITR) et Geoinformatics, permettant de développer des cyber-infrastructures intégrant des données en 3 ou 4 dimensions. Les domaines d’applications sont : la Science de la Terre, l’écologie, hydrologie, écologie, les sciences environnementales et les calculs de probabilités.
Outre une capacité de stockage et une rapidité de traitement accrues, ce type d’infrastructure permettrait à terme de réduire le matériel nécessaire du point de vue des utilisateurs finaux. Jusqu’ici, la machine posée sur le bureau nécessitait pour fonctionner de volumineux logiciels, une mémoire d’éléphant et une importante puissance de calcul. En externalisant ces trois éléments vers des prestataires spécialisés accessibles par Internet, l’ordinateur personnel s’allège et devient un simple terminal. Quand l’utilisateur souhaite travailler sur un texte, le logiciel adéquat qui s’active n’est pas installé dans son ordinateur mais sur un serveur situé quelque part dans le nuage. On parle ainsi de Software as a Service (SaaS, logiciel accessible à distance), et même de Platform as a Service pour désigner cette redistribution des cartes de l’industrie informatique autour du réseau et des nuages de serveurs. Cette approche permet de déporter en ligne les activités quotidiennes, de la bureautique à la gestion d’albums de photo. La connexion permanente, forfaitaire et à haut débit offrant confort d’utilisation et stabilité budgétaire.
Reste à savoir si les entreprises seront prêtes à livrer en toute confiance leurs données privées à des tiers extérieurs.
Source :
– "San Diego Supercomputer Center Begins Cloud Computing Research Using the Google-IBM CluE Cluster": 02.13.09 – https://www.sdsc.edu/News%20Items/PR021309_clue.html
– "A l’ère de l’"informatique en nuages" : Hervé Le Crosnier – août 2008 – https://www.monde-diplomatique.fr/2008/08/LE_CROSNIER/16174
Pour en savoir plus, contacts :
Cluster Exploratory (CluE), fiche descriptive fournie par la NSF : https://www.nsf.gov/pubs/2008/nsf08560/nsf08560.htm
Code brève
ADIT : 57989
Rédacteur :
Arnaud Souillé ; [email protected]