Vous aimez les sciences ? Vous aimeriez aider les scientifiques ? Bonne nouvelle, ils vous attendent !
Dans le cadre de leurs recherches, les scientifiques sont souvent confrontés à des problèmes de ressources, que ce soit en personnel, en matériel ou financière, pour assurer la maintenance et le suivi à long terme de leurs programmes.
Dans le cadre de leurs recherches, les scientifiques sont souvent confrontés à des problèmes de ressources, que ce soit en personnel, en matériel ou financière, pour assurer la maintenance et le suivi à long terme de leurs programmes.
Quand bien même ils disposeraient des plus puissants ordinateurs et de tout le personnel nécessaire, vu la quantité de données qu'ils doivent traiter, un moment ou un autre leurs ressources seront limitées. Se greffe sur ce problème le fait que les scientifiques ne peuvent pas toujours attendre des mois et des
années le résultat des analyses et des calculs.
Des solutions inédites ont été développées. Beowulf par exemple, développée en 1993 par Donald Becker de la NASA fut la première d'entre elles : des ordinateurs ont été mis en parallèle afin d'obtenir un système équivalent à la somme des processeurs utilisés. Même technique pour la mémoire. Aujourd'hui nous appelons ce genre d'architecture un cluster (une grappe).
Des solutions inédites ont été développées. Beowulf par exemple, développée en 1993 par Donald Becker de la NASA fut la première d'entre elles : des ordinateurs ont été mis en parallèle afin d'obtenir un système équivalent à la somme des processeurs utilisés. Même technique pour la mémoire. Aujourd'hui nous appelons ce genre d'architecture un cluster (une grappe).
Dans beaucoup de domaines, il est important de travailler en temps réel sinon le chercheur risque de rater un phénomène, que ce soit un évènement astronomique, physique ou une réaction chimique. Face à de telles contraintes comment peut-on malgré tout répartir le travail d'analyse ?
C'est ainsi qu'est né le premier projet distribué, SETI@home, dont le but est de localiser des signaux extraterrestres artificiels. Via un logiciel gratuit, toute personne connectée à Internet peut télécharger des données brutes enregistrées par le radiotélescope d'Arecibo à Porto Rico.
Internet et l'informatique distribuée au service des scientifiques. |
Les applications distribuées
En 1994, David Gedye, vice-président d'une société de formation en ligne discutait avec des amis et émit l'idée géniale d'utiliser la puissance de traitement de tous les micro-ordinateurs reliés à Internet: sur chacun d'eux, il suffisait d'exploiter les périodes de faible activité du processeur durant lesquelles s'active normalement l'économiseur d'écran pour traiter des données scientifiques.C'est ainsi qu'est né le premier projet distribué, SETI@home, dont le but est de localiser des signaux extraterrestres artificiels. Via un logiciel gratuit, toute personne connectée à Internet peut télécharger des données brutes enregistrées par le radiotélescope d'Arecibo à Porto Rico.
Le logiciel recherche des signaux suspects aléatoires ou répétitifs. Lorsqu'un module est traité les résultats significatifs sont renvoyés aux scientifiques qui n'ont plus qu'à vérifier les signaux suspects.
L'installation est simple : un ordinateur, une connexion à Internet et un logiciel d'analyse de spectre fournit gracieusement par l'équipe SETI de l'Université de Berkeley.
Aujourd'hui ce projet entre dans sa 17eme année d'existence. Plus de 133000 personnes réparties dans plus de 11000 équipes à travers le monde utilisent régulièrement SETI@home.
Depuis 1996, ce projet scientifique ainsi que de nombreux autres ont été intégré dans la plate-forme BOINC qui assure de manière plus conviviale la gestion des projets et des données.
Depuis 1996, ce projet scientifique ainsi que de nombreux autres ont été intégré dans la plate-forme BOINC qui assure de manière plus conviviale la gestion des projets et des données.
Performances
Les performances d'un projet ainsi distribué à travers Internet sont supérieures à celles de beaucoup de superordinateurs.
En effet, dans le cas de SETI@home, en 2013 la capacité globale de calcul du système dépasse 630 TeraFLOPS !
Grâce à ses 350000 utilisateurs et 6 millions d'ordinateurs, Einstein@Home, dont le but est de découvrir des pulsars et des ondes gravitationnelles, atteint 473 TFLOPS. Autrement dit, grâce à Internet Einstein@Home est 3.4 fois plus rapide que le NEC SX-8R de 140 TFLOPS de Météo-France !
Grâce à ses 350000 utilisateurs et 6 millions d'ordinateurs, Einstein@Home, dont le but est de découvrir des pulsars et des ondes gravitationnelles, atteint 473 TFLOPS. Autrement dit, grâce à Internet Einstein@Home est 3.4 fois plus rapide que le NEC SX-8R de 140 TFLOPS de Météo-France !
La puissance de calcul a atteint un niveau jamais égalé dans l'histoire de l'informatique et il est probable que son inventeur verra un jour son nom dans les livres d'histoire. Et pour cause.
De nombreux projets scientifiques
L'informatique distribuée s'est avérée si performante qu'aujourd'hui près de 140 projets similaires ont vu le jour. Parmi ceux ci citons :
- Astronomie : SETI@home, Cosmology@Home, Asteroids@home, Milkyway@home
- Astronautique : Constellation
- Physique : Einstein@home, LHC@home, uFluids, eOn, Iberdvis
- Sciences de la Terre : Climateprediction.net
- Biologie et Médecine : SIMAP, Rosetta@home, Docking@Home, Malariacontrol.net, GPUGrid.net
- Chimie : Spinhenge@home, Leiden Classical
- Environnement : Radioactive@Home
- Informatique : DistrRTgen, VoIPEx
- Informatique quantique : OProject@Home
- IA et Neurosciences : FreeHAL, MindModeling@Home
- Mathématiques : PrimeGrid, ABC@home, Collatz Conjecture, NFS@home, SAT@home
- ONG : World Community Grid
- Séismologie : Quake Catcher Network (avec sonde USB)
etc.
Ces projets font avancer la Science. Ainsi grâce à la participation des internautes, Einstein@Home par exemple permet de découvrir environ 200 pulsars par an, y compris des pulsars binaires, millisecondes et gamma. Leur étude permet de mieux comprendre la fin de vie des étoiles.
- Astronomie : SETI@home, Cosmology@Home, Asteroids@home, Milkyway@home
- Astronautique : Constellation
- Physique : Einstein@home, LHC@home, uFluids, eOn, Iberdvis
- Sciences de la Terre : Climateprediction.net
- Biologie et Médecine : SIMAP, Rosetta@home, Docking@Home, Malariacontrol.net, GPUGrid.net
- Chimie : Spinhenge@home, Leiden Classical
- Environnement : Radioactive@Home
- Informatique : DistrRTgen, VoIPEx
- Informatique quantique : OProject@Home
- IA et Neurosciences : FreeHAL, MindModeling@Home
- Mathématiques : PrimeGrid, ABC@home, Collatz Conjecture, NFS@home, SAT@home
- ONG : World Community Grid
- Séismologie : Quake Catcher Network (avec sonde USB)
etc.
Quelques projets scientifiques disponibles via l'interface BOINC. |
Grâce à Rosetta@home, les chercheurs peuvent créer de nouveaux enzymes et vaccins notamment.
Enfin, grâce à Quake Catcher Network et une sonde USB installée sur l'ordinateur de l'internaute, les séismologues peuvent détecter et suivre l'activité séismique en temps réel à travers le monde, etc.
Ces projets n'attendent que vous. Alors si vous voulez concrètement aider les scientifiques, téléchargez BOINC et ajoutez-y quelques projets. Faites-vous plaisir, c'est de la Science !
A propos des FLOPS et des superordinateurs
FLOPS est l'acronyme de nombre d'opérations en virgule flottante par seconde ou "FLoating point Operations Per Second". On parle de virgule flottante par opposition aux calculs avec des nombres entiers.
1 TeraFLOPS ou TFLOPS correspond à 1 milliard d'opérations en virgule flottante par seconde (ou 1000 Mips), l'équivalent de 1000 processeurs cadencés à 1 GHz.
Un ordinateur classique cadencé à 1 GHz présente une capacité de calcul d'environ 1 GFLOPS mais la progression n'est pas strictement linéaire car elle dépend des performances des caches du processeur.
A titre de comparaison, le cortex de l’homme est capable de traiter 1019 bits d’information soit, en jargon informatique l’équivalent d’une puissance de 10000 TFLOPS; notre cortex à la puissance d’un superordinateur Cray-3 mais ce dernier est loin d’être optimisé.
Notons qu'une simple calculatrice de poche réalise en théorie une seule opération par seconde. Nous avons rarement besoin d'un temps de réponse plus rapide. Subjectivement, nous considérons que toute réponse affichée en moins de 0.1 seconde est instantanée. Cela permet d'attribuer aux calculatrices une performance d'environ 10 FLOPS. Quant au méthodes de calculs manuelles (une division difficile), notre performance tombe en général à environ 1 milliFLOPS.
Enfin, grâce à Quake Catcher Network et une sonde USB installée sur l'ordinateur de l'internaute, les séismologues peuvent détecter et suivre l'activité séismique en temps réel à travers le monde, etc.
Ces projets n'attendent que vous. Alors si vous voulez concrètement aider les scientifiques, téléchargez BOINC et ajoutez-y quelques projets. Faites-vous plaisir, c'est de la Science !
A propos des FLOPS et des superordinateurs
FLOPS est l'acronyme de nombre d'opérations en virgule flottante par seconde ou "FLoating point Operations Per Second". On parle de virgule flottante par opposition aux calculs avec des nombres entiers.
1 TeraFLOPS ou TFLOPS correspond à 1 milliard d'opérations en virgule flottante par seconde (ou 1000 Mips), l'équivalent de 1000 processeurs cadencés à 1 GHz.
Un ordinateur classique cadencé à 1 GHz présente une capacité de calcul d'environ 1 GFLOPS mais la progression n'est pas strictement linéaire car elle dépend des performances des caches du processeur.
A titre de comparaison, le cortex de l’homme est capable de traiter 1019 bits d’information soit, en jargon informatique l’équivalent d’une puissance de 10000 TFLOPS; notre cortex à la puissance d’un superordinateur Cray-3 mais ce dernier est loin d’être optimisé.
Notons qu'une simple calculatrice de poche réalise en théorie une seule opération par seconde. Nous avons rarement besoin d'un temps de réponse plus rapide. Subjectivement, nous considérons que toute réponse affichée en moins de 0.1 seconde est instantanée. Cela permet d'attribuer aux calculatrices une performance d'environ 10 FLOPS. Quant au méthodes de calculs manuelles (une division difficile), notre performance tombe en général à environ 1 milliFLOPS.
Voir aussi le TOP500 des superordinateurs les plus rapides.
Aucun commentaire :
Enregistrer un commentaire