Nous produisons quotidiennement 2,5 Eo (exa-octet) de données. Pour se rendre compte de la quantité, voici une métaphore : la forêt amazonienne compte au bas mot 390 milliards d’arbres. Admettons, nous coupons tous les arbres et que nous en faisons du papier. Ensuite nous écrivons et scannons recto-verso cela donnera 1 Eo (exa-octet) de données.

L’expansion des data est due aux trois V : vitesse, variété et volume. Chaque minute, 3,2 milliards d’internautes se connectent sur Internet (volume). Quelque 350 000 tweets, 4,2 millions de likes sur Facebook sont émis chaque minute (vitesse). Plus de 3 000 milliards de recherches sur Google en un an et devient par conséquent la plus grande bibliothèque de la psyché humaine. Sans compter les datas générés par les objets connectés, ni des données que génèrent les GAFAMI et autres BATX en croisant nos propres données (variété).

La loi de Moore est-elle perpétuelle ?

Les ordinateurs classiques ne peuvent pas traiter toutes ces données. Et comme on vient de le voir, les données continuent de croître. La loi de Moore, qui prédit le doublement du nombre de transistors sur les circuits intégrés tous les deux ans, est de plus en plus discutée. En effet, aujourd’hui, ces transistors sont maintenant aussi petits que possibles, à la taille de l’atome. C’est pourquoi il y a une course des plus grands leaders de l’industrie pour être le premier à lancer un ordinateur quantique viable. En conséquence les ordinateurs quantiques seraient exponentiellement plus puissants pour traiter toutes les données que nous générons chaque jour et résoudront des problèmes de plus en plus complexes.

Les ordinateurs quantiques résolvent rapidement des problèmes complexes

À l’heure actuelle, le plus grand calculateur est chinois. Il est capable de faire 92 millions de milliards (92 Peta-flops) de calculs à la seconde. L’enjeu est gros car si une entreprise arrive à concevoir un ordinateur quantique commercialement viable, alors il est tout à fait possible que ces ordinateurs quantiques puissent calculer en quelques secondes ce que mettrait 1000 ans un ordinateur classique. Aujourd’hui, Google dispose d’un ordinateur quantique dont il est prétendu être 100 millions fois plus rapide que n’importe quel système d’aujourd’hui. Il est clair que si nous pouvons traiter la quantité monumentale de données que nous générons, nous résoudrons des problèmes très complexes. La clé du succès est de traduire nos problèmes du monde réel en langage quantique.

L’un des objectifs de l’intelligence artificielle est de trier et de qualifier les data. La complexité et la taille de nos ensembles de données augmentent plus rapidement que nos ressources informatiques. Alors que les ordinateurs classiques luttent pour résoudre certains problèmes, ces mêmes problèmes devraient être résolus en quelques secondes grâce au pouvoir du calcul quantique. Il est prédit que l’intelligence artificielle, et en particulier le machine learning, peuvent bénéficier des progrès de la technologie informatique quantique.

L’ordinateur quantique sera une vraie révolution

L’ordinateur quantique sera en capacité d’optimiser des processus et d’améliorer l’efficacité des services. Par exemple, il aidera à déterminer un traitement médical plus précisément en fonction des spécificités individuelles. Le coût de l’analyse génomique a été divisé par 100 000 en 10 ans. Le séquençage du génome d’une seule personne représente 22 To de données (Téra-octet ou 22 000 milliards d’octets). Il est facile d’imaginer les progrès significatifs en matière génomique et l’avantage concurrentiel que pourrait avoir un laboratoire sur ses concurrents.

En 2017, notre architecture informatique n’est plus adaptée à la croissance des données. Il est nécessaire d’avoir une approche différente pour les traiter. Non seulement sa portée est plus grande, mais les problèmes que nous essayons de résoudre sont très différents. Les ordinateurs quantiques seront les équipements pour résoudre efficacement aux problèmes actuels ; en matière de santé, métrologique, pollution etc.