Transformer les données brutes en insights stratégiques — à l'intersection de la rigueur analytique et de la créativité.
Venue de l'ingénierie, je me suis tournée vers la Data Science parce que j'aime comprendre ce que les données ont à dire.
J'aime creuser un problème, tester des idées et trouver des solutions qui ont un impact.
Et si je peux en plus faire des graphiques qui donnent envie de lire les résultats, c'est encore mieux.
Application destinée aux infirmiers de régulation et d'orientation (IOA) aux urgences. Un LLM analyse les symptômes décrits par le patient et propose un niveau de triage selon la classification CCMU, pour accélérer et fiabiliser la prise en charge.
Application NLP qui analyse un CV et des offres d'emploi pour calculer un score de compatibilité. Un LLM génère des recommandations personnalisées pour adapter le profil à chaque offre et maximiser les chances de recrutement.
Modèle de prédiction du Diagnostic de Performance Énergétique (DPE) et de la consommation d'un logement à partir de ses caractéristiques. Inclut un tableau de bord de statistiques générales sur le parc immobilier de Savoie.
Développement d'un package R implémentant des méthodes de clustering de variables (et non d'individus) pour la réduction de dimension et la sélection de features. Inclut documentation, tests unitaires et vignettes.
Application d'analyse de logs iptables pour identifier automatiquement des tentatives de connexion suspectes (brute force, scans de ports, anomalies). Extraction de features à partir des logs bruts et classification des événements.
Fine-tuning du modèle YOLOv8 pour la détection et classification de fruits et légumes en temps réel. Entraînement sur dataset custom annoté, optimisation des hyperparamètres et évaluation des performances (mAP, précision, rappel).
Outil automatisé qui transcrit les réunions audio, génère un compte rendu structuré (décisions, actions, participants) via LLM, et propose une planification intelligente des prochaines réunions selon les disponibilités et priorités.
Modèle de détection de transactions frauduleuses sur un dataset fortement déséquilibré. Comparaison de plusieurs algorithmes (Random Forest, XGBoost, Isolation Forest), gestion du déséquilibre des classes et optimisation du seuil de décision.
Prédiction de la consommation électrique nationale pour le 19 février 2010 à partir de données historiques. Modélisation par séries temporelles (ARIMA, LSTM) et analyse des patterns saisonniers et des pics de consommation.
Conception et animation d'un atelier de formation sur Apache Doris, base de données analytique OLAP temps réel. Mise en place d'environnements de TP, exercices pratiques sur l'ingestion, le requêtage et l'optimisation des performances.