Le magazine expert d’Ostrum AM

Tout le monde s’accorde dorénavant à dire que l’exploitation de la donnée est devenue un sujet stratégique, mais on élude trop souvent le sujet de son coût, de sa qualité et de son accès, qui sont pourtant essentiels. 
Dès lors, quel process pour traiter et acheminer efficacement la donnée ? Comment l’exploiter pour la transformer en un précieux outil d’aide à la décision et en faire un carburant d’innovation tout en protégeant les données les plus sensibles ?
 

Dans l’univers de l’investissement, les grandes tendances actuelles que sont l’essor de l’ESG, l’innovation produit et technologique, et les évolutions réglementaires, font partie des moteurs qui poussent à connecter toujours plus de nouvelles sources de données. Or pour élaborer une stratégie data efficace, il faut faire face à trois enjeux majeurs :

  1. La qualité et le taux de couverture : lorsqu'elles apparaissent, les nouvelles sources de données ne sont pas immédiatement matures et la couverture des actifs investis n'est pas exhaustive. Quant aux sources a priori les plus fiables, elles peuvent aussi faire apparaître des défauts, notamment lorsqu’il s’agit d’analyser des portefeuilles diversifiés au-delà des classes d’actifs traditionnelles, comme ceux qui se tournent vers les actifs réels par exemple. 
  2. La multiplication des sources : aucun acteur n’est capable de fournir à lui seul tout le panel de données dont un investisseur a besoin et encore moins de fournir tout ce dont un investisseur est susceptible d’avoir besoin dans le futur, du fait de l’évolution rapide des tendances ou du cadre réglementaire. Il est donc nécessaire d’être suffisamment agile pour pouvoir aller puiser la donnée auprès de divers canaux, et recomposer soi-même des indicateurs. 
  3. Le coût : le marché de la donnée, en croissance constante, reste in fine dominé par quelques acteurs en situation de quasi-monopole, ce qui entretient une inflation non régulée des coûts. D'où l'importance de pouvoir mettre en compétition les offres, de se donner les moyens de les optimiser individuellement et d'avoir accès aux sources alternatives de data lorsqu’elles existent. 

Centraliser et réconcilier les sources 

La multi-connectivité à de nombreux types de flux de données est donc un prérequis. Mais pour pouvoir parler le même « langage data » que ses utilisateurs, il est de plus impératif de savoir réconcilier cette multitude de sources. Cet exercice demande une compréhension experte de la façon dont elles sont structurées et la mise en place d’algorithmes sophistiqués, qui doivent pouvoir s’adapter aux évolutions « amont », avec l’émergence de nouvelles sources de données, et en « aval », avec la naissance de nouveaux besoins et cas d’usages de la data. A noter enfin : certaines données indispensables sont produites par les métiers eux-mêmes et s’appuient donc sur une nomenclature qui leur est propre, reflet de leur « langage » spécialisé. La mise en place d’un dictionnaire de données complet et de règles de correspondance entre ces références hétérogènes est donc cruciale pour pouvoir regrouper le tout en un ensemble cohérent et exploitable.

Fiabiliser la donnée et en faire une matière première précieuse pour l’innovation

Savoir collecter les données et les agréger est donc un premier facteur-clé de création de valeur ajoutée. Il s’agit ensuite de fiabiliser l’information et de la mettre en qualité en vue de d’en extraire de la valeur, ce qui nécessite une gouvernance de la data stricte, passant par la mise en place de règles de gestion précises :

  • La technologie va évidemment aider à franchir cette étape, en permettant notamment de confronter des sources indépendantes et de réaliser des contrôles systématiques : mise en place de seuils automatiques d’alerte en cas de variation importante, tests de complétude, etc…
  • Les contrôles d’équipes expertes d’administrateurs constituent une deuxième strate incontournable du dispositif de montée en qualité : correctifs, reprise d’incidents, actions après émission d’alertes automatiques, proposition d’ajustements aux règles de gestion….
  • Les nouvelles solutions comme l’IA peuvent également venir renforcer le processus, en introduisant une approche complémentaire des deux précédentes. Sans se substituer à l’expérience d’opérateurs humains, elle permet, par exemple, d’attirer leur attention sur des configurations inédites, qui pourraient être le signe d’une anomalie. Ce n’est qu’au prix de ces efforts que la donnée « brute » peut se transformer en donnée « précieuse », apte à enrichir les processus de décision et à nourrir l’innovation.

Donner accès à une mine d’information…

Le soin apporté à la rediffusion de la donnée via des canaux appropriés et adaptés aux besoins finaux est tout aussi primordial que l’étape de mise en qualité. Les usages digitaux se réinventent continuellement. Il ne suffit plus d’irriguer les systèmes opérationnels en données, il faut également restituer l’information en temps réel et de manière intelligible aux décideurs : gérants de portefeuilles, stratégistes, dirigeants, actionnaires… Cette restitution d’information peut prendre diverses formes : modules de visualisation classiques, tableaux de bord réalisés sur-mesure, ou bien reportings personnalisables « à la main » de l’utilisateur, qui peut ainsi consolider de manière très flexible les indicateurs et piloter son activité ou contrôler celle de ses prestataires.

Ouvrir par ailleurs un accès direct à la source de donnée est dorénavant un « plus » à forte valeur ajoutée.

L’utilisateur conserve ce faisant la latitude d’adresser certains sujets sensibles de manière totalement autonome : design de nouvelles offres, évaluation de scénarios stratégiques…, en toute discrétion et sans dépendre de l’entité en charge d’administrer cette donnée. 

… en toute sécurité

Le caractère hautement sensible et confidentiel de certaines informations nécessite de mettre en place des protocoles de sécurité robustes, qui doivent garantir l’intégrité de la donnée à plusieurs niveaux :

En interne : ségrégation appropriée entre entités d’un même groupe et gestion des différents niveaux d’habilitation au sein de chaque organisation ;
Vis-à-vis de l’extérieur : mise en place de murailles de Chine entre sociétés concurrentes, protection vis-à-vis de potentielles cyber attaques.

(Re)donner du sens à la donnée nécessite la faculté de cocher chacune de ces cases, qui repose nécessairement sur de lourds investissements informatiques et humains. 
 

L’ampleur et la criticité du sujet data en font donc un candidat particulièrement pertinent pour une approche de plateforme mutualisée, telle que celle offerte par Ostrum Services. Toute notre offre de services s’articule autour d’un puissant référentiel central, piloté par une équipe experte, qui restitue à nos clients une seule et même version de la donnée fiabilisée et valorisé. Développée en architecture ouverte et multifournisseurs, notre plateforme Ostrum Services garantit à nos clients la stricte confidentialité de leurs informations. Enfin, elle s’appuie sur les infrastructures technologiques du Groupe BPCE et bénéficie ainsi des plus hauts standards de sécurité, imposés aux établissements bancaires de premier plan.

  • Julien Raimbault

    Julien Raimbault

    DIRECTEUR OPÉRATIONS & TECHNOLOGIES

A LIRE

Nous suivre