Apidata

  • TOUS
  • ARTICLES
  • COMMUNIQUÉS
  • PRESSE

Et si les sociétés d’assurance transformaient leurs process en repensant leurs coûts relatifs aux systèmes de stockage et de gestion de la data, qui demandent un énorme investissement en développement, en intégration et en maintenance ? Co-fondateur de l’assurtech Apidata, Michel Ramos plaide pour une meilleure urbanisation de la donnée, avec des modules spécialisés connectés à un hub qui gère la sécurité, la qualité et la circulation des données. Il explique comment.

La donnée est le nouveau moteur de l’assurance. Elle est au cœur de tous les enjeux de personnalisation et de segmentation des offres, de prévention et de maîtrise du risque, de sécurité et de solvabilité… N’est-il pas logique de la placer au centre ?

Placer la donnée au centre ne signifie pas forcément centraliser les données ! En créant de gigantesques data lakes qui irriguent l’ensemble de leurs activités, les sociétés d’assurance mobilisent des moyens considérables qui me semblent, à bien des égards, contre-productifs. Car toutes les fonctions de l’entreprise n’ont pas besoin d’avoir accès à l’ensemble de la data stockée et au même moment : elles doivent pouvoir accéder aux données dont elles ont besoin, quand elles en ont besoin, avec la certitude que ces données sont mises à jour régulièrement, homogènes, et RGPD compatibles.

Vous plaidez pour une véritable urbanisation de la donnée. Qu’est-ce que cela signifie concrètement ?

L’urbanisation, c’est l’utilisation d’une donnée en mode service avec des règles d’accès et de circulation préalablement définies entre des modules spécialisés par fonction métier. Pour définir ce plan d’urbanisation, nous sommes donc remontés à la source, c’est-à-dire aux besoins des différentes équipes métiers d’une société d’assurance. La mission d’un actuaire, par exemple, c’est de faire des calculs de risques et de provisions : organiser les données dans une logique assurantielle rendra son travail plus efficace. De son côté, un contrôleur de gestion a une approche plus comptable : mieux vaut donc que son outil de gestion des données lui permette de suivre la position financière de ses clients en temps réel.

Les métiers ont des besoins différents, mais ils ont tous intérêt à travailler sur des données gérées, mises à jour, sécurisées et synchronisées. L’expérience montre que quand les données sont déversées dans un immense réservoir, elles se périment si personne ne les fait vivre. Lorsque nous traitons la gestion déléguée, par exemple, mieux vaut canaliser les données externes dans un hub dont la seule mission est de vérifier ligne à ligne tous les flux entrants puis de les dispatcher entre les différents modules « métiers ». La répartition des flux de données entre les modules interconnectés s’organisera ensuite dans une logique d’urbanisation simple, avec des règles d’habilitation, entre fournisseurs et consommateurs avec le moins de copies possible en respectant la sécurité, la traçabilité et les principes de non-répudiation de transactions. Ce que propose notre écosystème.

Une telle organisation des flux de données est-elle compatible avec les systèmes mis en place au fil des années par les sociétés d’assurance ?

De nombreux outils de gestion des données sont à bout de souffle, étouffés par la complexité des nouvelles fonctions empilées sur les anciennes, rendant le système de plus en plus instable. Les assureurs vont alors chercher des solutions auprès de jeunes entreprises innovantes ou des grands acteurs de la tech dont ils finissent par devenir prisonniers. Et en plus, ils leur transfèrent leurs données et leurs compétences ! C’est un drôle de calcul alors qu’il faudrait au contraire aller vers la simplicité. On dit souvent que pour résoudre un problème complexe, il vaut mieux le scinder en plusieurs problèmes simples. C’est ce que nous faisons dans le domaine de la gestion des données : nous créons des modules « métiers » interconnectés dans un écosystème dédié gérant tous les processus d’échanges. Nous pouvons aussi intégrer, grâce à notre système de connecteurs, des outils extérieurs à cet écosystème en consommateur ou en producteur.

Qui est maître des règles d’urbanisation ?

Nous avons créé des connecteurs spéciaux, les Security Manager, qui centralisent toutes les règles d’habilitation entre les modules. Ils vérifient en permanence les droits, la validité des transactions, leur non-répudiation avec le hachage des messages dans des bases intermédiaires réplicables. Nous avons construit un véritable orchestrateur de la data capable d’initier des transactions Middle Data et Big Data, si nécessaire.

Même si le modèle semble complexe, nous pensons que nous avons réussi un mécanisme d’échanges sur des principes extrêmement simples et performants !