[Fog Computing] Le stockage en bordure de réseau décolle grâce aux objets connectés

Google+ Pinterest LinkedIn Tumblr +

En quelques années, le monde a massivement adopté le cloud. Les startups peuvent grâce à lui se développer rapidement sans investir massivement, sauvegarder des données facilement.

De leur coté, les utilisateurs peuvent voyager léger en ayant accès à leurs données et fichiers personnels par l’intermédiaire du réseau cellulaire 4G ou WiFi.

Mais le 29 octobre 2012, l’ouragan Sandy qui s’abattait sur la côte Est des Etats-Unis, rappellait aussi que si ces données sont dans le nuage, de vrais nuages peuvent malgré tout causer de gros dégâts aux datacenters qui hébergent vos précieuses données.

Des startups comme Lima ont ainsi posé la première pierre du ‘cloud personnel’, celui qu’on bâtit chez soi avec de vieux disques-durs reliés à sa box internet. Dans le cas de Sandy, cela n’aurait sans doute pas épargné vos photos de vacances cependant…

datacenter

Le Fog Computing

Pour fournir une meilleure résilience des données hébergées par des centres situés à des centaines de kilomètres du point d’usage, l’idée de Fog Computing commence à émerger. Cette idée consiste à renforcer le cloud computing et les services informatiques par un maillage plus complet des points de stockage à la périphérie du réseau.

Similaire au Cloud, le Fog Computing fournit des données de calcul et de stockage et des services d’application pour les utilisateurs finaux. Mais au lieu d’être hébergées à des centaines de kilomètres, le Fog les abrite avec bien plus de proximité vis-à-vis de ses clients.

Au moyen d’une dense répartition géographique de points de stockages de tailles plus modestes, on peut ainsi héberger des services à la périphérie du réseau ou même sur des dispositifs finaux. Outre une plus grande sécurité des données, le Fog Computing pourrait même présenter l’avantage de réduire le temps de latence des services et d’améliorer leur qualité perçue.

fog-computing

De manière générale nous constatons tous qu’au cours des dernières années, de nombreuses applications ont migré vers le cloud traditionnel pour bénéficier de ses économies d’échelle, apportées par l’agrégation massive d’équipements dans de grand centres de données.

Note : Initialement considéré comme une contrainte, cet aspect a permis à Amazon de créer énormément de valeur au cours des dernières années via son offre Amazon Web Services.

Fog computing dans l’internet des objets

Cependant, ce mode de fonctionnement est imparfait pour de nombreuses autres applications qui requièrent une latence faible et prédictible (comme pour le smart-grid ou le guidage de véhicules autonomes) et dont la distribution géographique est large, avec un accès sans-fil prédominant et une connectivité variable.

On parle désormais d’IIoT, l’Industrial Internet of Things pour toutes ces technologies impliquant une forme de connectivité à destination de l’industrie. Comme la proposition de LocalGrid, vidéo ci-dessous :

Pour ces applications, le Fog Computing devrait progressivement s’imposer. Baptisée Edge Computing chez NTT ou Cloud 2.0 chez AT&T Labs, le Fog Computing est particulièrement pertinent pour l’Internet des objets connectés. Ce secteur est considéré comme un catalyseur majeur par Cisco, qui propose déjà une architecture de référence pour le Fog Computing.

Rodolfo Milito de Cisco, explique ainsi :

“Le Fog Computing peut soulager le réseau. Avec 50 milliards d’objets qui deviendront connectés dans le monde d’ici 2020, cela ne fera pas de sens de tout gérer dans le cloud. Les applications distribuées et les terminaux en bordure de réseau ont besoin de ressources distribuées. Le Fog rapproche les traitements des données. Les terminaux à faible énergie, à proximité de la bordure du réseau, peuvent délivrer une réponse en temps réel ».

Intel travaille également sur le « Cloud Computing at the Edge », qui vise la distribution du stockage et de la capacité de calcul dans le cloud au sein des éléments du réseau proche, à accès radio (RAN).

Qrad-Qarnot-1

A moyen terme, le marché d’acteurs comme Qarnot Computing est donc colossal. Cette startup française pourrait indirectement profiter de l’essor des objets connectés grâce à sa solution Q.Rad qui propose d’installer chez les particuliers un serveur en forme de radiateur.

En fait, Qarnot commercialise la capacité de calcul de la machine auprès de sociétés clientes en échange de l’installation de ses Q.Rad en bordure de réseau chez les particuliers. Ils bénéficient de la chaleur produite par cette machine qui agit comme un radiateur à chaleur douce. En plus, Qarnot rembourse à chaque particulier la consommation électrique de l’installation, pour aboutir à une facture de chauffage domestique à coût zéro.

Qrad-Qarnot-4

Via – images : 1/2

Partager

Un commentaire

  1. Pingback: [Fog Computing] Le stockage en bordure de r&eac...

Laisser un commentaire