Je crois bien qu'on est en pleine confusion
par rapport à ce que je connais de ces questions
GRID COMPUTING
Voici une définition parmi d'autres (cliquer).
Le grid computing consiste à mettre en commun des ressources logicielles et matérielles distribuées (ensemble que lon appelle la « grille ») afin de fournir une puissance de calcul importante. La charge de travail est divisée en sous-tâches qui sont traitées en parallèle par les ressources de la grille, les résultats étant ensuite agrégés dans un résultat global rendu à lutilisateur
Rien à voir avec le propos de ce fil.
WEB COMPUTING
Voici un autre
extrait du concept (cliquer) qui prend parfois des formes délirantes
CLOUD COMPUTING
Voilà ce qui peut paraître au plus près du propos de ce fil (cliquer).
En résumé :
Le GRID COMPUTING est une organisation de ressources dispersées partout. Un exemple "grand public" de cette organisation est celle de SETI (
lire l'article ici) qui permet que chaque ordinateur individuel soit utilisé, lorsqu'il ne fait rien, pour faire du calcul scientifique, toujours le même, pour exploiter des données issues de mesures du sceptre électromagnétique traqué par les radiotélescopes. Cette organisation de calcul permet de disposer d'une phénoménale puissance de calcul disséminée dans chaque foyer participant à cette recherche.
D'une certaine manière, c'est à l'opposé de l'organisation décrite à l'initiation de ce fil.
Le CLOUD COMPUTING, dans l'état actuel de son existence est une organisation proche de celle que les "anciens" de l'informatique ont bien connue avant l'apparition de l'ordinateur personnel. Les ordinateurs, par opposition aux Personal Computer, concentraient toute la puissance de calcul et de stockage en un seul lieu. Les différents utilisateurs de ces machines, appelées aussi mainframe ou middleframe selon leur capacité, communiquaient avec elles au moyen d'un terminal. Simple machine à écrire, puis terminal à écran cathodique muni d'un clavier, l'aboutissement du terminal, qui n'avait pas ou peu "d'intelligence" a été le PC. Puis, il y a eu des PC de plus en plus puissants appelés stations de travail, ou workstations, évolution par miniaturisation des gros ordinateurs, et non des PC, capables d'échanger des fichiers et même de la puissance de calcul grâce à des connexions en réseau. Ainsi, Ethernet en particulier, a été l'un des éléments de raccordements et de données et de puissance de traitement. Puis, les PC ont pris un peu, puis beaucoup de maturité, et sont devenus des stations de travail au fil du temps. Si Ethernet a été le réseau de connexion locale, Internet, via le réseau téléphonique, puis les télécommunications en général, est devenu le support d'un seul réseau international. L'objectif était de communiquer et d'échanger. La puissance de traitement était toujours locale, quelque fût la taille des machines.
Ce développement du NET à toutes les applications communes connues de l'informatique, ordinateurs, téléphones, tablettes, et demain, peut-être, à la domotique et à l'électroménager ne va pas sans poser de problèmes.
Dans la vision actuelle du CLOUD COMPUTING, il y a deux moteurs : le service, l'écosystème, voir les deux en même temps. Dans tous les cas, il y a une manipulation de l'information personnelle. Certains en font leur métier, comme Google, et les moteurs de recherche, et, compte tenu de leurs agissements, leur probité est souvent mise en doute. D'autres en ont besoin ne serait-ce que pour se faire payer chaque mois. Entre les deux exemples il y a une infinité de variante de comportement, mais peu de variantes de mise en uvre. Ainsi d'Apple dont la montée en puissance dans son équipement en DATACENTER en relativement peu de temps étonne un peu. Mais ce n'est rien, sans doute, comparé à ce qu'est Google, ou Facebook, ou Microsoft, ou les sociétés de ce genre qui ont tout intérêt à rester discrètes dans leur capacité à stocker et à traiter les informations. On pourrait aussi évoquer les centres gouvernementaux
ou les banques
et bien sûr toutes les sociétés qui font des affaires sur ce principe-là, en offrant du stockage limité et en louant une capacité plus importante. Il existe un exemple intéressant, Adobe, qui se lance dans le sujet. Mais les motivations apparentes peuvent peut-être très proche de la réalité. Rappelons d'abord que les logiciels d'Adobe sont très chers, et sont sans doute parmi les plus piratés. Il est certain que l'utilisation d'un nuage Adobe pour gérer et mettre à jour les logiciels à travers une location mensuelle est une solution plus anti-piratage que ce qui existe actuellement. L'avantage aussi d'une telle solution est de pouvoir aborder des locations de courte durée à des utilisateurs qui ne peuvent pas se permettre d'acheter des CS complètes à renouveler tous les 18 à 24 mois. Ne perdons pas de vue aussi les économies que cela fera faire
Pour le moment, le CLOUD COMPUTING est une solution de stockage centralisé chez le fournisseur, permettant à chaque utilisateur de disposer d'une version de chaque donnée disponible dans tout ses appareils. Ce n'est pas aussi simple que cela, et ne fonctionne pas aussi bien que cela. L'exemple d'Apple, dans la catégorie écosystème, est là pour le montrer.
Quant à la solution SF où plus rien ne se passe dans l'iPAD ou le MBA devenus simple terminal, qui ne reçoivent que les résultats de traitement, ça existe déjà, ça a toujours existé, c'est l'ordinateur de base. Mais pourquoi donc ne sert-il que pour les calculs scientifiques de haute volée ? Peut-être parce qu'ii en faudrait des millions et des millions chez chaque fournisseur de prestations ! Et que les réseaux de transmissions sont encore bien loin d'aller assez vite pour faire les échanges ! Et que le temps de traitement pour résoudre un problème donné demanderait une fraction de seconde. On est bien loin du compte. C'est encore de la SF.
Aujourd'hui, pour faire du stockage centralisé et sécurisé, les moyens existent, et les solutions s'appelle des datacenter, regroupement d'une multitude de serveur . Serveurs qui, comme le nom l'indique servent, c'est-à-dire restituent sur demande, avec un temps de latence aussi court que possible, une demande d'information stockée au préalable.
Mais faire du calcul centralisé pour des millions d'utilisateurs simultanés et concurrentiels, c'est une autre histoire, surtout si les uns demandent des encodages de films, quand les autres demandent l'analyse statistique de leur dépenses et de leurs recettes des 20 dernières années, d'autres trient leurs dizaines de milliers de photographies. et d'autres, encore, font traduire leurs mémoires en une multitude de langues.