Tokenisation et ETFs ne s'opposent pas : l'un refait la route de l'autre
Le marché de la gestion d'actifs débat depuis plusieurs mois d'une question avec des angles multiples : la tokenisation basée sur la blockchain va-t-elle remplacer les ETFs ? La réponse courte est que ce cadre binaire est problématique, et non solution. Pendant que l'industrie débat de qui va gagner, elle ignore un risque structurel qu'elle partage.
Selon des données compilées par Asset Tokenization, le marché de la tokenisation pourrait atteindre 2 billions de dollars d'ici 2035. McKinsey, quant à elle, projette 1,9 billion pour 2030 et 4 billions pour 2035. Ces chiffres justifient des conversations sérieuses dans n'importe quelle salle de direction. Mais avant de s'enthousiasmer pour le potentiel de marché, il est prudent de comprendre précisément quel problème chaque instrument résout, et quel est le coût réel de ne pas le résoudre.
Les ETFs ont construit la route, mais l'asphalte se fissure
L'argument central qui circule parmi les spécialistes du secteur est que les ETFs ont résolu un problème structurel légitime : ils ont rendu les marchés plus accessibles, plus liquides et dramatiquement moins chers que les fonds mutuels traditionnels. C'est empiriquement vrai. Mais il y a une deuxième partie du diagnostic que l'on mentionne moins : les ETFs fonctionnent toujours sur une infrastructure des années 90.
Règlement en T+1. Accès conditionné à la détention d'un compte de courtage. Transactions limitées aux horaires de marché. Et une barrière structurelle qui apparaît rarement dans les rapports des gestionnaires : environ 7 milliards de personnes dans le monde n'ont pas accès à un compte de courtage. Ce n'est pas un problème de produit ; c'est un problème d'infrastructure de distribution.
C'est ici que l'analogie de la route prend une précision technique. Les ETFs ont coulé l'asphalte sur ce qui était autrefois un chemin de terre. Mais le volume de trafic a changé, les exigences de vitesse ont changé, et l'asphalte qui fonctionnait en 1993 n'est pas dimensionné pour ce qui est à venir. La tokenisation ne démolit pas l'autoroute ; elle change la couche de roulement. Ce sont des problèmes d'ingénierie différents, avec des coûts et des délais d'implémentation différents.
Le risque pour les acteurs établis n'est pas que la tokenisation les remplace demain. Le risque, c'est qu'ils commencent à perdre la marge sur les segments les plus rentables — les investisseurs institutionnels qui valorisent la liquidité 24/7 et le règlement instantané — pendant que leurs structures de coûts fixes continuent d'être calibrées pour le modèle précédent.
Le piège de la narration de substitution
Quand une technologie émergente se manifeste avec des projections de marché qui déplacent des milliards, l'industrie a tendance à organiser le débat en deux tranchées : ceux qui la soutiennent et ceux qui la critiquent. Les deux positions sont pratiques pour vendre des conférences et lever des fonds. Aucune n'est utile pour prendre des décisions opérationnelles.
Le PDG d'OpenAssets le présente avec une logique qui, dépouillée de l'enthousiasme commercial habituel, résiste à l'analyse : la tokenisation ne corrige pas ce qui ne va pas dans les ETFs ; elle corrige ce qui ne va pas dans les voies sur lesquelles circulent les ETFs. C'est une distinction qui semble sémantique mais a des implications concrètes pour tout gestionnaire d'actifs qui évalue où allouer un budget de transformation technologique.
Mettre à jour l'emballage du produit est une chose. Remplacer le système de règlement, les protocoles de conservation et les mécanismes de distribution en est une autre. Cette dernière a un coût d'implémentation d'un ordre de grandeur supérieur, nécessite une coordination réglementaire dans plusieurs juridictions et fait face à la résistance des intermédiaires qui capturent aujourd'hui les revenus du système hérité.
Cela génère un schéma prévisible : les institutions ayant la plus grande exposition à ces intermédiaires vont agir lentement, non pas par manque de vision, mais parce que chaque mois de retard dans l'adoption est un mois de revenus protégés dans le modèle actuel. Les incitations sont alignées avec l'inertie. Ce n'est pas un jugement de valeur ; c'est de la mécanique organisationnelle basique.
La coexistence comme période de risque, non d'équilibre
Le scénario le plus probable à l'horizon de cinq à dix ans n'est pas le remplacement des ETFs ni leur évolution nette vers des versions tokenisées. Le scénario le plus probable est une phase de coexistence où les deux infrastructures fonctionnent en parallèle, capturant des segments distincts du marché avec des structures de coûts différentes.
Cela semble raisonnable sur le papier. En pratique, la coexistence a un coût opérationnel que les analyses optimistes omettent souvent : maintenir deux systèmes de règlement, deux cadres de conformité réglementaire et deux piles technologiques simultanément n'est pas gratuit. Pour les gestionnaires de taille moyenne, ce coût peut être prohibitif sans une stratégie par phases qui définit exactement quand et comment migrer des capacités sans compromettre l'activité principale.
Les acteurs qui vont bien survivre à cette transition ne sont pas nécessairement les premiers à tokeniser tout. Ce sont ceux qui peuvent isoler leur cœur de revenus stable tout en expérimentant avec des structures tokenisées dans des segments de risque réglementaire plus faible. Un fonds monétaire tokenisé est un pari très différent, en termes d'exposition, que de tokeniser un ETF d'actions avec une exposition aux marchés émergents. La granularité a de l'importance.
Les projections de McKinsey et d'Asset Tokenization sont utiles pour dimensionner le potentiel de marché. Elles ne sont pas utiles pour déterminer à quel moment, dans la période de transition, une structure spécifique passe d’un pari contrôlé à devenir un fardeau de capital qui met en danger l'opération principale. Ce calcul dépend de variables que tout rapport de marché ne peut pas généraliser : marge opérationnelle actuelle, concentration de revenus par segment, coût du capital et capacité réglementaire interne.
Le filtre qui sépare les paris sérieux des déclarations de position
Il existe une manière de faire rapidement la distinction entre les organisations qui prennent la tokenisation au sérieux comme transformation d'infrastructure et celles qui utilisent le sujet pour alimenter des récits d'innovation sans engager de capital réel : regarder où se trouve le budget de risque.
Une entreprise qui annonce une initiative de tokenisation mais n'a pas modifié son architecture de conservation ni amorcé des discussions réglementaires formelles ne fait pas une mise à jour d'infrastructure. Elle fait de la communication d'entreprise. La différence entre les deux a un nom en comptabilité : actifs intangibles sans valeur comptable contre investissement de capital avec calendrier d'amortissement.
La période de coexistence qui s'annonce entre les ETFs et les structures tokenisées va durer plus longtemps que ce que les enthousiastes projettent et coûter plus cher que ce que les sceptiques anticipent. Les organisations qui arriveront à la phase de convergence avec des bilans solides, des structures de coûts variables et une capacité réglementaire construite de manière incrémentale seront celles qui pourront capturer le marché lorsque l'infrastructure se stabilisera. Celles qui auront surinvesti dans une transition prématurée, ou celles qui auront complètement ignoré le signal, auront moins de marge de manœuvre lorsque la fenêtre opérationnelle se rétrécira.










