Le système financier mondial fait face à un paradoxe. Les banques investissent des milliards dans l'intelligence artificielle, les régulateurs conçoivent des monnaies numériques de banque centrale, et les entreprises technologiques développent des systèmes de détection de fraude de plus en plus sophistiqués. Pourtant, la criminalité financière continue de prospérer, s'adaptant plus vite que les défenses ne peuvent réagir. La raison, de plus en plus claire pour les forces de l'ordre et les responsables bancaires, est que les institutions qui combattent ce phénomène opèrent avec une main attachée dans le dos — incapables ou réticentes à contraindre les plateformes numériques où s'originient une grande partie de la fraude moderne.

Les mois récents ont cristallisé cette tension. Les agences chargées de l'application de la loi dans plusieurs juridictions ont commencé à tirer la sonnette d'alarme : les démantèlements traditionnels de fonds d'arnaque bancaire n'obtiennent que des résultats marginaux sans exploiter les données, la portée et les capacités d'application des géants des réseaux sociaux. Ce n'est pas une question de frictions mineures entre régimes réglementaires. Cela représente un dysfonctionnement structurel fondamental dans la façon dont l'architecture mondiale de prévention de la criminalité financière a été assemblée. Les banques assurent la police de leurs propres canaux avec une sophistication croissante. Les régulateurs rédigent des règles et supervisent la conformité. Les fournisseurs technologiques construisent des systèmes de détection. Pourtant, les plateformes où les escrocs recrutent des victimes, établissent de fausses identités et coordonnent les attaques opèrent avec une responsabilité financière minimale, traitant la fraude comme un problème de modération de contenu plutôt que comme un facteur habilitant de criminalité financière systémique.

L'émergence du partenariat entre Anthropic et FIS pour déployer des agents IA spécifiquement conçus pour la détection de fraude représente la pointe de la technologie défensive. Ces systèmes peuvent traiter les modèles de transactions, les signaux de comportement et les anomalies contextuelles à grande échelle, identifiant les activités suspectes plus rapidement que les analystes humains. La sophistication est réelle et l'effort est nécessaire. Pourtant, même l'IA la plus avancée reste fondamentalement réactive — elle peut signaler un escroc après coup, mais ne peut pas l'empêcher d'utiliser Instagram, TikTok ou WhatsApp pour cibler des populations vulnérables.

Les développements parallèles dans l'architecture des devises numériques suggèrent que les décideurs politiques poursuivent également des solutions technologiques à des problèmes structurels. Le lancement par le Canada de son premier dollar numérique réglementé représente une progression logique : les monnaies numériques de banque centrale (MNBC) offrent aux gouvernements et aux institutions financières des mécanismes de visibilité accrue des transactions et de contrôle que les paiements traditionnels ne possèdent pas. La monnaie programmable pourrait, en théorie, être conçue avec une résistance intrinsèque à la fraude. Pourtant, cette innovation, aussi précieuse soit-elle, ne traite que le côté de l'offre de l'équation du crime. Une MNBC sophistiquée ne fait rien pour empêcher un escroc de convaincre une grand-mère de transférer des fonds via une plateforme de réseaux sociaux — le moment de vulnérabilité humaine qui reste le maillon le plus faible de chaque chaîne de criminalité financière.

L'espace des crypto-monnaies a fourni une étude de cas involontaire de cette asymétrie. Au fur et à mesure que la fraude aux actifs numériques s'est multipliée, les régulateurs et les forces de l'ordre se sont tournés à plusieurs reprises vers les plateformes de réseaux sociaux demandant une coopération : suppression de comptes frauduleux, suspension de promoteurs d'arnaque, identification des flux de paiement. Les résultats ont été inégaux. Ce qui émerge des rapports de police et des dépôts réglementaires est une image de plateformes opérant selon leur propre calcul commercial — réactives lorsque le contentieux menace, défensives lorsqu'on leur demande d'assumer la responsabilité de la criminalité financière, et fondamentalement structurées autour du volume de contenu et de l'engagement plutôt que de l'intégrité transactionnelle. L'ironie de voir la Corée du Nord (ou des acteurs prétendant son affiliation) accuser les plateformes médiatiques d'accusations de vol de crypto-monnaies tout en opérant via ces mêmes plateformes souligne l'absurdité : les accusateurs eux-mêmes exploitent l'infrastructure qu'ils critiquent.

Les banques opèrent selon des cadres de responsabilité explicites. La Banque centrale européenne, l'Autorité bancaire européenne, la Banque des règlements internationaux, et les organismes analogues mondiaux imposent des obligations de conformité, conduisent des examens et imposent des pénalités. Les plateformes de réseaux sociaux opèrent dans un univers réglementaire entièrement différent — assujetties aux lois sur le contenu, aux règles de protection des données et au contrôle des concentrations, mais pas à des cadres de prévention de la criminalité financière. Cette asymétrie réglementaire n'est pas accidentelle ; elle reflète la division historique entre « institutions financières » et « sociétés de technologie de l'information ». Cette frontière est devenue obsolète. Lorsque l'infrastructure d'une plateforme est le mécanisme principal par lequel la fraude financière est organisée et exécutée, un traitement réglementaire dissocié de la responsabilité en matière de prévention de la criminalité financière devient intenable.

Ce qui devient nécessaire est une intégration structurelle. Non pas une acquisition ou une fusion, mais des exigences d'interopérabilité obligatoires qui forcent les plateformes de réseaux sociaux dans l'écosystème de prévention de la criminalité financière. Cela pourrait prendre plusieurs formes : des normes obligatoires de signalement de fraude alignées sur les exigences bancaires, des protocoles de suspension de compte en temps réel coordonnés avec les institutions financières, des normes de vérification d'identité qui empêchent la création de fausses identités, et des pistes d'audit qui permettent l'enquête. De telles mesures rencontreraient une vive résistance de la part des plateformes invoquant des préoccupations en matière de respect de la vie privée et des implications pour la liberté d'expression. Ces objections méritent un sérieux engagement. Mais elles ne peuvent logiquement s'étendre à la protection de l'infrastructure de la fraude elle-même.

Les années à venir détermineront si la prévention de la criminalité financière devient véritablement systémique ou reste une collection de défenses non coordonnées. Les banques continueront de déployer l'IA. Les devises numériques se multiplieront. Les régulateurs renforceront les règles de conformité. Tout nécessaire, tout utile. Rien de suffisant. La bataille contre la criminalité financière ne peut être gagnée en défendant la forteresse tandis que les portes restent sous contrôle hostile. Jusqu'à ce que les plateformes de réseaux sociaux opèrent comme des participants responsables du système financier plutôt que comme une infrastructure périphérique, la détection de fraude restera perpétuellement réactive, et les milliards dépensés en IA et en innovation numérique fourniront des rendements décroissants contre un adversaire qui opère dans un domaine non réglementé.

Rédigé par l'équipe éditoriale — journalisme indépendant alimenté par Codego Press.