Contexte et problématique
Dans le cadre de la création d’une nouvelle entité d’un grand acteur du secteur bancaire, nous avons en charge le développement de la partie Data et Analytics du SI. Ce dernier doit permettre aux clients de visualiser les services, les tarifs puis de souscrire en ligne.
Enfin, une brique de scoring de demande de crédit sera développée pour accorder ou refuser automatiquement une demande.
Objectifs
Mise en place et conception du Datalake et du DataWareHouse.
Ingestion et pré-cleaning des données providers tout en industrialisant les modèles des pricing.
Permettre aux métiers et aux clients de visualiser en temps réel leur pricing et surtout les demandes de crédit.
Notre intervention
1 Data Architect, 2 Data Engineers, 1 développeur full-stack
- Définition de l’architecture et construction du Datalake et du Datastore
- Développement et industrialisation des pipelines d’ingestion et transformation de la donnée
- Développement d’un data catalog et exposition de la donnée à travers des APIs
- Mise en production des modèles de pricing
Résultats
Environnement technique
Python, Go, Typescript, vue.JS, Node.JS
AWS: S3, VPC, IAM, Cognito, ECS/ECR, Lambda, Glue, RDS, Fargate, Batch, WAF, API Gateway, DynamoDB, ElasticCache, Route53, EventBridge, SageMaker
Elastic Search, Kibana
Docker, Kubernetes, Terraform