Verizon a annoncé la semaine dernière travailler sur des services d’edge computing afin de les mettre à la disposition des développeurs pour créer de nouvelles expériences pour ses clients, et grâce à la 5G. Il s’agira de services qui vont déléguer les calculs graphiques à des serveurs situés à proximité de l’utilisateur. L’objectif pour Verizon est de devenir un partenaire de choix dans la création d’applications pour la réalité étendue (XR), nom utilisé parler de toutes les réalités qui existent : virtuelle, augmentée, et mixte.

L’edge computing : la vraie révolution de la 5G ?

Pour l’instant, dès lors que l’on entend parler de la 5G, les médias targuent la vitesse de tel opérateur, mais oublient souvent l’essentiel. Certes, la puissance va être importante dans la création de nouvelles expériences, mais les capacités de cette 5ème génération sont aussi d’offrir une latence 10 fois moins importante qu’avec la 4G, ou encore de proposer une densité d’appareils au km2 10 fois supérieure. Au-delà de ce spectre de performances, c’est l’infrastructure des opérateurs qui va faire la différence. Elles doivent permettre le développement de nouveaux services, et pas uniquement tournés vers le consommateur, ou le smartphone. Placer des antennes et offrir un accès à la 5G est une chose. Donner la possibilité à un monde toujours plus connecté d’être véritablement intelligent, c’en est une autre. Et c’est par ce terme peu attrayant d’edge computing que cela se passe.

Pour faire simple, l’edge computing peut être représenté par une multitude de serveurs placés en périphérie du coeur du réseau. Cela permet de créer un réseau (relié au cloud) où des calculs sont réalisés au plus proche de l’utilisateur, plutôt que de faire voyager les données. Ce fonctionnement est surtout destiné à la création de services ou microservices pour faciliter des tâches lourdes qui ne peuvent être effectuées sur l’appareil de l’utilisateur.

De nombreux acteurs vantent ce système, et des opérateurs commencent d’ores et déjà à les intégrer à leur réseau. Satya Nadella, PDG de Microsoft, a d’ailleurs expliqué lors d’une conférence que l’edge computing est « l’avenir de l’informatique ». Au Japon, Rakuten s’apprête à devenir l’opérateur le plus avancé avec un réseau 5G IPv6, virtualisé, pensé pour le cloud et l’edge computing. Aux États-Unis, Verizon s’y met aussi, et révèle de nouveaux usages, au-delà de la simple théorie.

schéma du réseau mobile 5G de Rakuten

Schéma du réseau mobile 5G de Rakuten. Source : Rakuten

Que va proposer Verizon pour la réalité étendue ?

L’idée de l’opérateur américain, est de proposer un processeur graphique à la demande. Imaginez que vous deviez retoucher une photographie avec une résolution importante depuis un vieux smartphone, ou que vous vouliez proposer un rendu très réaliste de meubles en réalité augmentée (jeux de lumière, textures HD, etc.) … Pouvoir transmettre le traitement des images à un serveur offrirait une expérience ultra rapide et inédite.

« Pour aider les développeurs à créer ces nouvelles applications et solutions, les équipes de Verizon ont développé une série de fonctionnalités de périphérie. Ces capacités, de nature similaire aux API, décrivent les processus que les développeurs peuvent utiliser pour construire une application sans avoir besoin de code supplémentaire, » explique l’opérateur dans son communiqué.

Au total, 8 services sont proposés :

  • La vision par ordinateur en 2D : pour lancer une bande-annonce lorsqu’on passe sa caméra sur une affiche de film, ou afficher des informations complémentaires sur le packaging d’un produit ;
  • Le traitement de la lumière en réalité mixte : pour adapter les éléments à leur environnement (luminosité, reflets, etc.) ;
  • Le rendu partagé : l’idée est de déléguer une partie du rendu graphique aux serveurs afin d’offrir une expérience de jeu plus fluide ;
  • Le ray tracing en temps réel : solution poussée par NVIDIA dans ses cartes graphiques les plus performantes, voilà que l’on pourrait en bénéficier directement sur nos smartphones ;
  • Le rendu sonore spatialisé : ce type de traitement est très lourd pour un PC correct, et presque impossible pour un smartphone. Proposer cela permettrait d’adapter des objets en 3D à l’environnement sonore et physique ;
  • La vision par ordinateur en 3D : contrairement à la 2D, le traitement de la 3D apporte une compréhension plus complexe des éléments, comme la reconnaissance d’un fruit, d’un animal, pour ensuite afficher des informations contextualisées ;
  • Le transcodage en temps réel : ce service permettrait de travailler sur des formats bruts, lourds, sans perte de performances ;
  • La mise en cache des ressources : tout simplement, vous pourriez être 3 personnes à travailler en même temps sur l’édition d’une même vidéo, avec la même souplesse que lorsque vous collaborez sur un document G Suite.

Désormais, la question qui subsiste est de savoir qui va utiliser ces services, et de quelle manière. Si les opérateurs vont rentabiliser leurs infrastructures avec le prix des forfaits, il est clair que de nouvelles opportunités se dessinent dans l’allocation de ressources comme celles-ci.