Accueil Page FacebookPage LinkedIn

telephone +41 24 423 96 50 | Horaires

La définition du Big Data et ses enjeux !

 

Contexte lié à l’avènement de l’analyse de grandes bases de données :

 

Eléments de définitions & opportunités : Big data, Data mining et Machine learning

Big data

La plupart du temps, le Big data concerne des données observées, par opposition aux données construites expérimentalement. Ainsi, n’étant pas obtenues à la suite d’un plan d’expériences structurées, les Big data peuvent contenir un certain degré de covariance et de ce fait de corrélation. Cela peut nuire à la compréhension et à la recherche de la relation de causalité dans la performance du processus étudié.

Data mining (information extraction)

Machine learning

 

La clé de l’implémentation réussie des outils de modélisation et d’analyses prédictives : Good modeling practices

Projet porté par le programme ESPRIT de l’Union Européenne, le Cross-Industry Standard Process for Data Mining (CRISP-DM) est un modèle de processus standard pour la réalisation de projet de Data mining.

Divisé en 6 étapes, ce modèle récapitule les grandes étapes permettant, en partant du besoin (compréhension du métier), de fournir une solution adaptée au sein de l’organisation (déploiement).

 

De manière plus détaillée, les étapes du CRISP-DM sont :

 

Aujourd’hui & en pratique, de nombreux outils sont à disposition !

Les techniques et types de modélisation sont aujourd’hui très nombreuses et en constante évolution, les champs d’étude du Data mining et Machine learning étant très dynamiques :

Une seule de ces techniques ne pouvant modéliser toutes les situations (no free lunch theorem), et chaque technique présentant des limitations, des approches hybrides sont également utilisées.

 

Perspectives et conclusion

Les opportunités créées grâce au Data mining et au Machine learning sont nombreuses : elles sont source d’une transformation des organisations et un levier de croissance.

La mise en place de modèles reflétant l’entièreté d’un processus afin de poursuivre le but du zéro défaut (Digital twin), l’implémentation du machine learning dans les microcontrôleurs omniprésents (reconnaissance vocale par exemple), et la prédiction de l’adhésion d’un client à un programme ne sont que quelques exemples d’aide à la décision permise par le Data mining et le Machine learning. De plus en plus précis, ces outils ouvrent le champ des possibilités pour tout type d’activité !

Vous souhaitez interpréter des mégadonnées/Big data via des méthodes analytiques dédiées et ainsi générer de la valeur pour vos utilisateurs/clients? C’est le défi que relève l’ARIAQ en proposant dans son catalogue de formation le cours de « Modélisation et analyse prédictives ».

Détails et inscription sur https://www.ariaq.ch/formation/199/modrlisation-et-analyse-predictives/

 

Hugo Johan – Formation et conseil en Analyses de données

Ingénieur en Biotechnologie de formation, Hugo est spécialisé en purification de biomolécules (DSP), ayant acquis une expérience de près de 8 ans au sein de laboratoires R&D publiques et privés en Belgique, aux Pays-Bas et en Suisse. Au cours de sa carrière, Hugo a contribué aux développements de biomolécules variées impliquées dans des essais cliniques de Phase I à III (anticorps monoclonaux, bispécifiques, vecteurs viraux), et dans le cadre des normes internationales (GMP/GLP, QbD/PAT/ICH). En parallèle de son cursus en génie biologique, Hugo a développé des compétences en statistiques appliquées, en modélisation et en programmation, devenant le référent de ces thématiques et contribuant à l’implémentation de ces outils au sein des groupes de travail dans lesquels il a évolué.