LA DATA FACTORY : Passage à l’échelle de l’usage de la data dans l’entreprise – EP3

Episode 3 de notre série concernant le rôle des Data Factory dans la modernisation des environnements data des entreprises. Petit Zoom sur les tendances en matière de socle technologique.

 

Les Data Factory comme facilitateur du passage à l’échelle des usages de la data dans les entreprises.

Collecter, organiser et exposer la data de la façon la plus simple et rationnelle possible est l’enjeu majeur pour adresser tous les besoins des utilisateurs métiers. Le socle, évolutif, doit servir de support à tous les usages et à tous les utilisateurs, experts et non-experts !

 

Quelle infrastructure et quelles technologies pour exploiter la donnée ?

 

Move to cloud : migrer Big Data et Data Lake vers le Cloud.

Le déploiement des plateformes cloud est l’élément majeur qui guide aujourd’hui les entreprises dans leur choix de plateformes Data évolutives et modernes. Le Cloud permet une gestion et un usage simplifié de la Data. Avec ses offres de services permettant de valoriser toute la chaîne de données, il s’adresse à tous en réduisant l’inertie et le temps de développement des projets.

Pour ce faire, des fournisseurs comme Amazon, Google et Microsoft ont conçu des services d’analyse très performants et utiles pour la collecte et la valorisation des Big Data.

Google Amazon Microsoft

 

Ingestion continue : collecter et traiter les données en temps réel.

D’un point de vue collecte et stockage, les architectures modernes tendent à combiner ingestion temps réel et traitements par lots (batchs) pour produire des vues adaptées aux besoins des métiers.

L’ingestion et le traitement de données en temps réel permet aux organisations d’analyser et de créer des données enrichies de façon instantanée. Contrairement à l’analyse batch, les « pipelines / flux » d’ingestion continue permettent d’être au plus proche des événements et de prendre des décisions très rapidement. C’est le domaine d’implémentation de la solution Kafka qui vient très souvent compléter l’architecture cloud mise à disposition : les données sont alors extraites, traitées et stockées dès leur génération pour une prise de décision dans un délai raccourci.

apache-kafka

Rendre la main aux métiers : outiller les différents services de l’entreprise.

Les outils mis en place doivent permettre l’accès à la donnée en favorisant la production et la consultation des analyses par tous. Les outils donnent librement au plus grand nombre la capacité de préparer et d’analyser la donnée mais aussi de la partager et de l’exposer. Accessibilité et collaboration sont les critères les plus souvent déterminants. Nous avons choisi, chez Lincoln, de nous spécialiser sur les solutions SnowFlake, Tableau Software et Dataiku pour répondre à ces enjeux et pour couvrir les différents besoins de nos clients. Pour autant, nos expertises multi solutions/langages nous permettent d’accompagner nos clients sur leur propre environnement technique (AWS, Azure, Python, Qlik, Power BI….).

Dataiku Snowflake Tableau

 

MLOps : industrialiser les modèles de ML.

L’industrialisation des pipelines et des projets Data est la clef du passage à l’échelle de la donnée dans l’entreprise. Le MLOps intervient partout : dans la phase d’exploration et de gestion des expérimentations, dans l’automatisation du pipeline et dans le monitoring (notamment fonctionnel) du modèle. La Data Factory doit définir et mettre en place les processus d’automatisation et d’industrialisation axés sur l’amélioration de la communication entre les équipes, de l’intégration des programmes, de l’automatisation des livraisons, du monitoring et de l’exploitation des flux de données entre les gestionnaires de données et les consommateurs de données à travers l’organisation.

mlops

Seul le changement est éternel.

Une architecture Data moderne et évolutive nécessite une adaptabilité importante car les exigences et l’utilisation des données changent rapidement et en continu. Vos consommateurs de données développent des besoins nouveaux et différents à mesure que leurs priorités commerciales et que les conditions du marché évoluent. Une architecture adaptable accepte et s’adapte à ces changements, permettant au flux de données et d’informations de qualité de s’améliorer à chaque étape.

 

Le Pôle Conseil & Innovation vous accompagne de bout en bout d’un point de vue technologique et méthodologique dans la définition, l’orchestration et la mise en œuvre des chantiers clés pour réussir votre enjeu global : devenir une société Data Driven.

 

Retrouvez les précédents articles qui composent la série :

 

Épisode 2

Épisode 1