Analyse de texte

Analyse de texte

Les mondes de l’industrie, celui de la Supply-Chain, de l’assurance et de la santé sont désormais sensibilisés aux divers enjeux de la donnée. De nombreuses d’initiatives ont été lancées pour créer de la valeur à partir de données structurées (scoring, churn, maintenance prédictive, …).
Quid des données textes ?
Sous-exploitées car complexes à appréhender (ambiguïté, dialecte, besoin de contexte fort, données grandement non structurées), les données texte sont aujourd’hui majoritairement analysées manuellement. Ce constat semble en décalage par rapport à l’évolution des usages, considérant que la plupart des entreprises et institutions collectent désormais des informations écrites, depuis les call centers, reviews en ligne, réseaux sociaux, mails, dossier numériques, …

A Quantmetry nous avons la conviction que le Natural Language Processing (NLP) est source de valeur, mais il est aujourd’hui complexe de se retrouver dans l’éventail des solutions disponibles. Nous nous sommes forgés des convictions solides sur les techniques liées au NLP à travers différentes missions et nos activités de R&D. Nos réalisations sont aujourd’hui utilisées en production et nous sommes capables de sélectionner et proposer les solutions / approches / méthodologies les plus adaptées aux Cas d’Usages de nos clients.

Avec des Success Stories telles que l’agent conversationnel Aida au service des professionnels de l’assurance, notre expertise s’étend jusqu’à la création de solution intégrées utilisant des briques des Natural Language Understanding, de Speech to Text.

Analyse d’image

Quantmetry a réalisé de nombreux projets sur l’analyse d’image, développant des compétences scientifiques et technologiques spécifiques à cette expertise. Les travaux menés enrichissent la construction d’un guide méthodologique rassemblant notre vision sur les axes suivants :

  • Méthodologie pour les applications techniques : guide scientifique pour les différents cas d’usage :
    • choix de l’algorithme
    • choix du framework de Deep Learning
    • choix de l’architecture du pipeline de traitement des données
  • Positionnement de Quantmetry : fournir un plan d’action priorisé concernant la capacité à faire de Quantmetry sur ces sujets
  • Conseils méthodologiques en mission :  fournir une grille de lecture et des bonnes pratiques à une équipe projet Quantmetry pour un cas d’usage en mission
  • Acteurs et thèmes de recherche actif : partager les retours sur les spécificités des domaines d’application métier et de faire le point sur le panorama de la recherche en traitement d’images.

Dans ses success stories, Quantmetry compte des travaux de recherche comme le développement de solutions s’appuyant sur un algorithme de deep learning pour le comptage de follicules au sein d’images médicales pour un grand laboratoire de recherche. Mais aussi des projets industriels comme la construction d’une solution pour la détection automatique des toits à partir de prises de vues aériennes.

Analyse d'image
Timeserie_600x600px

Time Series

Les séries temporelles se différencient des problèmes de machine learning classiques, du fait que les échantillons ne sont pas indépendants et sont corrélés à leur contexte, le temps. Quantmetry a développé son expertise en Time Series au travers d’expériences en R&D appliquées en mission. Nous proposons aujourd’hui une méthodologie à l’état de l’art pour adresser les cas d’usages les plus complexes utilisant ce type de données. Les cas d’usage, historiquement issus du secteur financier, se multiplient aujourd’hui dans les secteurs de l’industrie, de la supply chain, de l’énergie ou bien encore celui de la santé. Qu’il s’agisse de problématiques de forecast de la demande, de prévision de part de marché, de production, de détection d’anomalies sur des données IoT, 

nous développons des solutions tirant parti des méthodes statistiques historiquement développées dans ce domaine, tout en intégrant dans notre approche les dernières avancées en deep learning et machine learning afin de proposer des algorithmes toujours plus performants, scalables, et interprétables.

Nous nous sommes aujourd’hui forgés une conviction, non seulement d’un point de vue méthodologique et algorithmique, mais également en matière d’architecture pour mettre en production les cas d’usages plus rapidement, plus efficacement, tout en répondant à des contraintes de volume et de performance,  dans le but de maximiser le retour sur investissement des applications data science développées pour nos clients.

Interprétabilité des modèles

De nombreux projets data s’appuient sur la création d’un algorithme dont les performances peuvent être correctes mais dont la mise en production pose question faute de fonctionnement compréhensible. Chez Quantmetry, nous sommes convaincus que cette démarche d’intelligibilité, nécessaire pour rendre moins opaque les modèles prédictifs, sera bientôt incontournable pour l’adoption de l’Intelligence Artificielle à grande échelle.

En nous appuyant sur des travaux de R&D internes, nos contributions open source et des échanges réguliers avec le monde de la recherche, nous avons développé une expertise, des convictions et un ensemble de bonnes pratiques sur l’utilisation de techniques favorisant l’interprétation des décisions prises par les modèles prédictifs.

Qu’il s’agisse d’un gain en intelligibilité globale – permettant de mieux comprendre quels effets ont les variables explicatives sur les prédictions – ou alors de l’intelligibilité locale – 

visant à mieux comprendre les facteurs liés à une décision en particulier, nous sommes convaincus que notre expertise pourra vous être utile, comme elle l’a déjà été pour plusieurs de nos clients :

  • Extraction de règles logiques pour décrire – et donc mieux comprendre – d’une manière approchée un modèle prédictif complexe.
  • Activation des bons leviers d’action au niveau individuel, basé sur le calcul des variables contribuant le plus à une prédiction de churn associé.
  • Analyse de l’impact de plusieurs variables issues de données externes, afin de valider que cet impact sur les prédictions était conforme à l’attendu (sens de variation, effet de seuils, etc.).

Vous pouvez retrouver notre livre blanc “IA, explique-toi !” qui instruit cette problématique de l’intelligibilité des modèles de machine learning, non seulement les aspects techniques mais aussi les impacts organisationnels, réglementaires et sociétaux d’une démarche d’intelligibilité.

Interprétabilité des modèles
Data Visualisation

Data visualisation

La transformation par la data nécessite une assimilation et une adoption par les utilisateurs métiers des solutions proposées.

Pour garantir cette appropriation, il nous apparaît primordial de donner du sens à vos données en les retranscrivant de la manière la plus intuitive possible grâce à des représentations graphiques pertinentes et percutantes.

La Data visualisation est un levier essentiel de partage et de diffusion de l’information au sein de l’entreprise qui obéit à des codes et des bonnes pratiques issues de l’expérience mais aussi d’études cognitives.

A travers nos expériences, nous nous sommes forgés la conviction qu’une majorité des besoins d’analyse de données peuvent être couverts par des outils dédiés (open-source ou propriétaires) sur lesquels nous avons développé un savoir-faire pour exposer le résultat de traitements analytiques ou de modèles de machine-learning.

D’autres besoins spécifiques nécessitent parfois un développement sur-mesure pour répondre à des exigences métiers non couvertes par les solutions du marché. Pour adresser ces spécificités, nos data engineers réalisent des applications web et/ou mobile permettant une interaction sur-mesure  avec votre solution data.