Parcours pro

Gestion de projet data – mise en place de tableaux de bord automatisés et de longs formats, collaboration avec les différents métiers (développeurs, directeur artistique, rédacteurs en chef)

Ecriture d’articles data – traitement et visualisation de données simples et complexes via R, Python et QGIS, création de pipelines de données

Ecriture d’articles tournés vers l’OSINT : analyse d’images satellite, vérification de contenus diffusés sur les réseaux sociaux

Reprise de dépêches (AFP, Reuters), interviews et gestion du live

Écriture d’articles data et fact-checking

Participation à la mise en place d’un comparateur de programmes dans le cadre des élections présidentielles de 2022

Participation à l’accompagnement de clients dans des projets de visualisation (INA, Arte, Nouvel Obs) : organisation et animation de brainstorming, analyse de données

Écriture d’articles (AFP, Reuters), interviews, gestion du live et secrétariat de rédaction

Écriture d’articles data : compilation et traitement des données sur Excel, visualisation en collaboration avec le service Infographie

Écriture de dépêches sur la thématique de l’enseignement supérieur

Traitement, compilation et nettoyage de bases de données via R, visualisation de l’information sur Tableau

Etudes

J’ai effectué un DUT journalisme à l’IUT de Lannion (formation reconnue par la CPNEJ), de 2018 à 2020.

J’ai continué mon cursus en licence professionnelle internationale de journalisme web dans le même établissement, entre 2020 et 2022. Dans le cadre de cette formation, j’ai effectué un erasmus de six mois à l’Université Catholique de Louvain-la-Neuve, en Belgique.

Afin d’approfondir mes compétences en analyse de données et en programmation, j’ai effectué le master Méga Données et analyse sociale (MéDas) au Conservatoire national des Arts et Métiers, à Paris. J’ai effectué ce cursus en alternance, durant deux ans, au sein de la rédaction de franceinfo.fr.

Compétences

Analyse de données

Analyse de données (csv, xlsx, json) ou d’images satellite sous R, Python ou Excel avec un intérêt particulier pour les données climatiques (grib, netcdf). Ce processus inclut le nettoyage, la transformation et la modélisation des données.

Automatisation

Création de pipelines de données (via des serveurs distants) pour permettre la mise à jour automatique de contenus journalistiques. Cela implique l’utilisation d’outils de planification et de gestion des flux de travail, garantissant la mise à jour et la disponibilité des données en temps réel.

Infographies

Création d’infographies fixes sous R (ggplot) et Python (matplotlib) ou de graphiques interactives grâce aux outils en ligne Datawrapper ou Flourish.

Utilisation d'API

Récupération de données massives via des API à des fins de créations de contenus journalistiques automatisés ou fixes.

Cartographie

Création de cartes fixes ou animées (GIF) sous R, Python ou QGIS pour visualiser des données géographiques et leur évolution dans le temps.

Scraping

Récupération de données en Python (selenium, BeautifulSoup4) à des fins journalistiques.