1. L’état actuel des technologies quantiques
Il y a encore quelques années, l’informatique quantique relevait surtout de la recherche fondamentale. En 2025, elle commence à produire des résultats tangibles.
Les progrès récents se concentrent sur deux grands défis : le nombre de qubits stables et la correction d’erreurs.
Des qubits de plus en plus fiables
IBM, Google, Quantinuum et plusieurs laboratoires publics européens ont franchi des caps importants.
IBM, par exemple, a présenté un processeur de 133 qubits baptisé Heron, conçu pour fonctionner dans une architecture modulaire capable de relier plusieurs processeurs quantiques entre eux.
Dans le même temps, les chercheurs ont démontré des taux d’erreur en forte baisse, permettant enfin d’obtenir des qubits logiques plus stables, c’est-à-dire capables de maintenir une cohérence suffisante pour exécuter des calculs de longue durée.
Les laboratoires travaillant sur les ions piégés, comme ceux de Quantinuum ou du CNRS, enregistrent eux aussi des progrès notables : les opérations à un seul qubit atteignent aujourd’hui des taux de fiabilité proches de 99,999 %.
La véritable révolution, à court terme, viendra de la correction d’erreurs à grande échelle, condition indispensable à la “tolérance aux fautes” qui permettra des calculs réellement exploitables.
Vers une maturité technologique progressive
Les experts s’accordent à dire que l’ordinateur quantique tolérant aux fautes — celui capable de casser les schémas de chiffrement actuels — n’existera pas avant une dizaine d’années.
Mais la vitesse de progression observée depuis 2023 invite à une vigilance accrue : les jalons se rapprochent, et les banques doivent préparer dès aujourd’hui la transition vers une sécurité adaptée à cette nouvelle ère.
2. Quel risque pour la sécurité bancaire ?
Le principal risque vient du fait que les algorithmes de chiffrement actuels, notamment RSA et ECC, pourraient être cassés par un ordinateur quantique suffisamment puissant.
L’algorithme de Shor, publié dès les années 1990, démontre qu’un calcul quantique parallèle permettrait de factoriser des clés RSA en quelques heures — un exploit encore impossible aujourd’hui, mais mathématiquement certain une fois la puissance disponible.
Une menace déjà présente : le « harvest now, decrypt later »
Certains attaquants enregistrent dès maintenant des communications chiffrées afin de pouvoir les déchiffrer plus tard, lorsque les machines quantiques seront prêtes.
Ce scénario, connu sous le nom de “harvest now, decrypt later”, est particulièrement préoccupant pour les données bancaires et les transactions à long terme : dossiers KYC, contrats, données clients, archives internes, etc.
Ces informations, même chiffrées, pourraient être exposées dans quelques années si les banques ne migrent pas progressivement vers des solutions dites post-quantiques.
Des normes déjà en place
Le NIST américain a publié en 2024 les premiers standards industriels de cryptographie résistante au quantique :
ML-KEM (Kyber) pour l’échange de clés,
ML-DSA (Dilithium) pour la signature,
SLH-DSA (SPHINCS+) comme alternative sans structure.
L’Europe, via l’ENISA et l’ETSI, encourage déjà la planification de ces transitions, tandis que la NSA a fixé une feuille de route, CNSA 2.0, qui impose la compatibilité post-quantique à partir de 2027 pour les infrastructures critiques.
3. Se préparer sans paniquer
La perspective du “quantum break” ne doit pas susciter la panique, mais une préparation méthodique.
Les banques disposent encore de quelques années, mais la complexité de leurs systèmes rend une migration tardive risquée.
L’enjeu, à ce stade, est d’adopter une posture crypto-agile.
Les premières étapes recommandées
Cartographier les usages cryptographiques : identifier où sont utilisés RSA, ECC, TLS, ou les signatures internes.
Prioriser les données à longue durée de confidentialité : certaines informations, comme les contrats ou les clés de paiement, doivent rester protégées plus de 10 ans.
Tester les implémentations hybrides : combiner les algorithmes classiques et post-quantiques dans les connexions réseau ou la signature des logiciels.
Former les équipes et les fournisseurs : la migration PQC doit s’intégrer aux politiques DORA et NIS2, qui imposent déjà une gestion rigoureuse des risques numériques.
La clé : la crypto-agilité
L’objectif n’est pas de tout remplacer, mais de rendre les infrastructures flexibles et réversibles.
Les systèmes capables de changer rapidement d’algorithme ou de taille de clé auront un avantage décisif.
Les organisations doivent aussi préparer leurs clauses contractuelles avec les prestataires cloud, les PSP et les éditeurs de sécurité pour garantir une évolution coordonnée.
4. Les tendances à horizon 2030
Les cinq prochaines années seront marquées par une phase d’expérimentation massive.
Les grandes plateformes (Microsoft, AWS, Google Cloud) testent déjà des implémentations de TLS post-quantique sur leurs services.
Des banques pilotes en Europe intègrent ces protocoles hybrides dans leurs environnements de test pour évaluer la compatibilité avec leurs API de paiement et leurs systèmes d’authentification forte.
Entre 2027 et 2030, on assistera probablement à une généralisation des PKI post-quantiques et à la mise à jour des signatures logicielles.
D’ici là, les systèmes bancaires continueront de fonctionner avec des schémas hybrides, combinant la robustesse du chiffrement classique et la résilience des nouveaux algorithmes.
Le scénario le plus réaliste :
Aucun effondrement soudain de la sécurité,
Mais une transition graduelle, imposée par la conformité et la gestion du risque long terme,
Avec un coût d’adaptation modéré si la préparation débute dès maintenant.
Le passage à l’ère post-quantique représente moins une rupture qu’un changement de paradigme.
Les banques n’ont pas à craindre une bascule brutale, mais elles doivent agir avec méthode et anticipation.
Les premières migrations réussies seront celles fondées sur la connaissance précise des risques, la formation des équipes et la coopération entre acteurs financiers, régulateurs et fournisseurs de technologie.
L’enjeu n’est pas seulement de protéger les données contre un futur incertain, mais de bâtir une résilience cryptographique durable, à la hauteur de la transformation numérique du secteur financier.
5. Comment les institutions financières doivent-elles se préparer ?
La première étape consiste à cartographier les usages cryptographiques et à identifier les données à longue durée de confidentialité.
Ensuite, il faut tester des protocoles hybrides (classiques + post-quantiques) et inclure des clauses de compatibilité PQC dans les contrats fournisseurs. L’objectif : devenir crypto-agile, sans attendre une obligation réglementaire.
6. À quel horizon les changements seront-ils effectifs ?
Entre 2027 et 2030, la plupart des infrastructures critiques — dont le secteur bancaire — devraient adopter des algorithmes post-quantiques dans leurs systèmes de chiffrement, leurs PKI et leurs processus de signature logicielle.
Il s’agit d’une transition progressive, pas d’un basculement brutal.
La sécurité post-quantique regroupe l’ensemble des techniques cryptographiques conçues pour résister aux attaques des futurs ordinateurs quantiques. Ces nouveaux algorithmes visent à remplacer ceux qui deviendront vulnérables (RSA, ECC) lorsque la puissance de calcul quantique sera suffisante.
Pas encore. Les machines actuelles comptent quelques centaines de qubits instables, loin du seuil nécessaire pour casser les clés de chiffrement utilisées dans la finance. Toutefois, les progrès récents en correction d’erreurs accélèrent le calendrier, d’où l’importance de se préparer dès maintenant.
Les banques manipulent des volumes massifs de données confidentielles et de transactions chiffrées à longue durée de vie. Une partie de ces échanges pourrait être interceptée aujourd’hui puis déchiffrée plus tard, lorsque la technologie quantique sera mature — c’est le risque du “harvest now, decrypt later”.
Le NIST a normalisé en 2024 trois nouveaux standards :
ML-KEM (Kyber) pour l’échange de clés,
ML-DSA (Dilithium) pour les signatures,
SLH-DSA (SPHINCS+) comme option de secours.
Ces algorithmes sont déjà testés par les grands acteurs du cloud et plusieurs banques européennes.

