Votre demande a bien été prise en compte.

Comme nous avons pu le voir au fil de nos derniers articles, l’industrie pharmaceutique a entamé une transformation profonde depuis maintenant plusieurs années. Une mise en place complexifiée notamment par les innovations thérapeutiques, la désertification de l’activité libérale,… ainsi que par la modification des attentes des professionnels de santé. 

Dans ce contexte, l’open Data devient alors à la fois un pilier indispensable et un facteur clé de succès de la stratégie. En effet, cette accélération de l’ouverture des données apporte depuis quelques années des compléments d’informations et l’enrichissement de la connaissance sur l’environnement autour des professionnels de santé en est un parfait exemple. Une description plus précise peut ainsi être apportée sur chaque professionnel de santé à travers la densité médicale qui l’entoure, les caractéristiques de ses patients mais aussi par les priorités de santé publique qui lui font face.  

Il devient donc nécessaire aujourd’hui d’exploiter la richesse de ces données tout en respectant les fondamentaux de la mise en place d’une stratégie Data-driven (cf articles précédents) :

  •   Une donnée en temps réel, centralisée et sécurisée
  •   Des approches de Datascience pour valoriser les données et bénéficier de la complémentarité des différentes sources sans négliger le contrôle qualité
  •   Diffusion et synthétisation des informations

Une fois déterminé à intégrer l’open data dans votre stratégie, vient la phase de mise en place. Comment l’Open Data peut-il vous aider à mieux comprendre les enjeux des professionnels de santé ?

Nous allons voir, au travers d’un cas d’usage spécifique aux laboratoires pharmaceutiques, comment une solution en temps réel construite autour de l’open data peut apporter du contenu différenciant aux professionnels de santé. Et bien sûr pour que cette solution soit différenciante et exploitée par tous, elle doit respecter les règles d’or d’une stratégie Data-driven optimale.

 

  1. Connecter & centraliser

La première étape avant d’interroger des sources de données externes est la mise en place d’une stratégie Data-driven sur l’ensemble des sources de données et  applications consommatrices.

Concrètement, le CRM, les logiciels de gestion type SAP et de manière générale l’ensemble des sources d’informations d’une entreprise doivent pouvoir s’auto alimenter afin d’avoir une connaissance fiable et unique de ces clients. Dans toute industrie, un point de vente fermé est un élément qui doit être connu de tous..

Plusieurs solutions sont envisageables pour éviter ce type de problème, l’une d’entre elles est de créer un référentiel centralisé (nécessairement maintenu) avec des connecteurs ETL alimentant l’ensemble des applications métiers. La centralisation de la donnée est clé pour définir les usages et besoins en interne.

Les questions qu’une entreprise peut (= que “doit alors se poser “?) se poser sont les suivantes:

  • Quelles données sont obsolètes ? 
  • Quelles sources d’informations sont manquantes ?

=> Votre objectif, ici, est de connecter l’ensemble des sources de données et dans notre cas d’usage, via un outil avec des connecteurs ETL 

 

  1. Intégrer

L’étape suivante est de prioriser les données Open Data. En effet, il est essentiel de définir une road map pour se concentrer sur les données Open Data répondant à des usages et besoins en interne. Maintenir et stocker une base de données a un coût !

Par ailleurs, cette data collection doit être transparente et automatisée via par exemple la mise en place d’API limitant l’intervention humaine, consommatrice d’énergie et source d’erreurs…

Nous pouvons citer quelques exemples de données Open Data pouvant répondre à différents enjeux:

  • Mise à jour d’un référentiel officinal ou de professionnels de santé avec des sources comme l’annuaire santé ou la base Sirene
  • Compréhension des enjeux sanitaires via les données de l’assurance maladie ou de la DREES 

=> Cet outil doit être en capacité d’interroger et alimenter des sources de données externes en temps réel

 

  1. Valoriser

Dès lors que les sources de données internes et externes sont centralisées et intégrées, la question qui se pose est la création de contenus intéressants, disruptifs et bien sûr répondant à des besoins métiers.

Vient alors l’étape de la valorisation via la transformation de la data (data management) et la création d’une plus-value (Datascience) pour apporter des bénéfices aux collaborateurs:

  • En croisant des informations entre elles : la population des personnes âgées de plus de 65 ans seule n’a que peu de sens sans une pondération avec la population totale
  • En transformant des variables quantitatives en qualitatives : as-t-on besoin de savoir la distance exacte entre le professionnel de santé et la pharmacie la plus proche? Mais plutôt de savoir si oui non la distance est inférieure à 500 mètres dans un centre ville ou moins de 10 minutes en voiture dans une zone rurale..
  • En synthétisant via par exemple des typologies construites à partir d’une centaine de variables pour en dégager un profil précis (une patientèle âgée avec plusieurs commerces de proximité ainsi qu’une offre pluridisciplinaire autour de ce cabinet médical…)
  • En anticipant à l’aide d’approches prédictives (comment va évoluer l’offre médicale autour de ma pharmacie dans les 3 prochaines années, quelles sont les pathologies et les futures préoccupations de mes patients …)

=> Le croisement des données doit apporter de l’enrichissement et de la différenciation dans le contenu

 

  1. Diffuser 

Enfin, pour que ces nouveaux enseignements soient exploités, il ne faut pas oublier sa diffusion sous un format adapté aux usages !  Le data storytelling est la dernière pièce maîtresse pour une exploitation optimale des données : Une carte d’identité ou un portrait pour représenter une typologie/personae, une cartographie caractérisant le profil de la patientèle autour d’un médecin..

L’expérience utilisateur est la clé du succès !

=> Cette étape doit vous permettre d’ apporter des applications métiers et accessibles à tous

 

Exemple de restitution d’un cas d’usage centré sur l’open data réalisé par Velvet 

Plaçons nous dans le cas d’une application géomarketing synthétisant les informations clées autour des officines intégrant les fonctionnalités suivantes:

  • Alimentation des différents référentiels internes 
  • Intégration de sources de données Open Data 
  • Clustering et profiling de la zone de chalandise
  • Géocodage automatique des nouvelles pharmacies
  • Synthèse des indicateurs clés propres à chaque officine

Visualisation du cas d’usage réalisé avec notre outil Datageo présentant l’environnement officinal au sein d’une région selon des critères définis.

Source : Datageo by Velvet

Envie d’en savoir plus ? Intéressé(e) pour échanger sur des approches similaires ? N’hésitez pas à nous contacter !

Pour nous contacter: sternisien@velvetconsulting.com ou mgeoffroy@velvetconsulting.com

Retour