Zoom sur l’edge computing
Décryptage

Zoom sur l’edge computing

Avec sa promesse de rapidité, de sécurité et de gains économiques, le traitement des données à la périphérie du réseau -plus connu sous le nom d’edge computing- suscite un intérêt grandissant. Mais quels sont les avantages de cette technologie ? Et quelle place tiendra-t-il dans les usages de demain ? Explications.

L’engouement pour l’edge computing ne date pas d’aujourd’hui. Dès 2018, le cabinet Gartner produisait une note dans laquelle il s’intéressait à la place de cette technologie dans l’infrastructure réseau des entreprises. Avec un chiffre qui en dit (déjà) long sur son potentiel puisque les experts estiment que, si 10% des données générées par les entreprises sont à l’époque traitées à la périphérie du réseau, cette part pourrait s’élever à 75% d’ici 2025. Deux ans plus tard, en 2020, le marché de l’edge computing pèse 4,7 milliards de dollars et devrait, selon les analystes de Grand View Research, bondir de près de 38% pour dépasser les 60 milliards de dollars en 2028.

L’edge computing incarne donc pour beaucoup l’avenir des technologies connectées, même si les utilisateurs ne savent pas toujours ce que désigne concrètement cette notion de « périphérie du réseau », ni dans quels cas il peut s’avérer pertinent de déployer une telle architecture dans les entreprises. Car, si l’edge computing est bel et bien une solution novatrice, elle ne signifie pas forcément qu’il faille abandonner toutes les autres options, notamment le cloud computing.

>>> Lire aussi : Un numérique plus vertueux, est-ce possible ?

Une technologie en phase avec l’IoT et la 5G

Pour expliquer simplement ce qu’est l’edge computing, pas besoin de quitter son salon. Lorsque vous utilisez une montre ou une enceinte connectée, chacun de ces objets échangent et stockent les données que vous créez dans un data center situé (en général) à plusieurs milliers de kilomètres de chez vous. Imaginez maintenant que votre maison dispose d’un petit serveur, discret, pour connecter vos objets et traiter en direct toute leur data : vous avez là une parfaite illustration d’infrastructure en edge computing.

Ses avantages paraissent d’abord évident : moins de distance, c’est forcément moins de temps pour exécuter les requêtes, mais aussi plus de sécurité si l’on considère qu’aucune information ne traverse le réseau pour être traitée. Or, cette question de la rapidité de la réponse est devenue un enjeu crucial, notamment dans le cadre du développement des objets connectés. Pour être opérationnels, un système de maintenance prédictive ou un véhicule autonome équipé de toute une série de capteurs doivent pouvoir échanger des données dans un temps de latence extrêmement réduit. Et, à l’inverse du cloud, l’edge computing peut tenir cette promesse, encore plus prégnante avec l’arrivée de la 5G. Les deux technologies sont d’ailleurs souvent associées, et on imagine déjà que les antennes relais peuvent constituer autant de mini-serveurs locaux, à la base d’une architecture en edge computing.

Edge computing et numérique responsable

Une erreur serait toutefois de croire que l’edge computing est en passe de s’imposer comme la norme en termes d’architecture réseau. Se pose d’abord la question de la puissance et de la capacité de stockage. Quoi qu’il arrive, traiter de la data exige d’utiliser des algorithmes toujours plus puissants, qui s’enrichissent en permanence au contact de masse de données extrêmemement importantes. Si, comme le prédisent la plupart des experts, plus de 40 milliards d’objets connectés circulent sur le marché en 2025, impossible de se passer des services du cloud computing et de ses machines centralisées, dotées d’une importante capacité de calcul.

>>> Lire aussi : Data centers et environnement sont-ils conciliables ?

L’edge computing se présente donc comme un outil complémentaire du cloud traditionnel. Une technologie locale qui rend plus efficace le fonctionnement des objets connectés, tout en opérant un premier tri des données avant de les envoyer vers les data centers. D’un autre côté, en multipliant les modes de traitement à la périphérie, on libère de la bande passante et on décongestionne les axes principaux, ce qui limite le risque de panne des principaux serveurs. Les récents incidents qui ont touché des mastodontes du cloud computing comme OVH ou Amazon Web Services (AWS) donnent du crédit à cette hypothèse. 

Enfin, l’essor de cette technologie permet de réaliser de véritable progrès en matière de numérique responsable. En traitant localement et en amont certaines données lourdes, on allège la masse stockée par la suite dans les data center. Cette architecture décentralisée et optimisée grâce à des serveurs moins énergivores, semble une alternative à l’écosystème qui prévaut encore. Combinée aux réflexions menées actuellement par les leaders du « big data » pour réduire l’empreinte carbone de leurs immenses data center, elle pourrait bien constituer un axe majeur de la transition vers un numérique plus vert.

Partager