Journée des doctorant·es de l'IDP 2024

Informations pratiques

  • La journée se déroule à Tours.

  • Matin : amphi F22 (en face de l’arrêt de bus Fac Grandmont), après-midi : amphi E030 (à côté du labo).

  • Le repas se déroulera à la brasserie du restaurant universitaire (rez-de-chaussée).

Programme

  • 09h30-10h : Café de bienvenue

  • 10h-10h25 : Igor Haladjian (Lien entre les J-groupes et les pavages triangulaires)

  • 10h35-11h : Sonia Boulal (Pénalisations d’arbres de Galton-Watson marqués)

  • 11h10-11h35 : Émile Pierret (Diffusion models for Gaussian distributions: Exact solutions and Wassersteins errors)

  • 11h45-12h10 : Paguiel Javan Hossie (Surrogate modeling of interactions in microbial communities through Physics-Informed Neural Networks)

  • 12h20-13h50 : Repas

  • 14h-14h25 : Elhadji Cisse Faye (An efficient sampling method for Bayesian image restoration with explicit score function-based priors)

  • 14h35-15h : Matthieu Cornillault (Fonction de partition du modèle à six vertex)

  • 15h10-16h40 : AG du labo

Résumés

  • Sonia Boulal : Pénalisations d’arbres de Galton-Watson marqués. Dans cet exposé, on s’intéresse à des arbres de Galton-Watson dont la particularité est que chaque nœud peut être marqué avec une probabilité dépendant de son nombre d’enfants, cela, indépendamment des autres nœuds. Par la suite, à l’aide d’une méthode appelée pénalisation nous favorisons les arbres avec un grand nombre de marques. Plus précisément, cette méthode permet d’obtenir des martingales qui sont dans notre cas des fonctions de M_n, le nombre de marques jusqu’à la génération n-1. Ces martingales étant positives et de moyenne 1, nous pouvons alors définir de nouvelles probabilités sous lesquelles nous étudions les lois des arbres marqués.

  • Matthieu Cornillault : Fonction de partition du modèle à six vertex. La fonction de partition est un objet central en physique statistique : connaître cet objet permet de déterminer les propriétés thermodynamiques du système que l’on étudie. Nous allons nous intéresser ici au modèle à six vertex (ou modèle de la glace). Il s’agit d’un modèle intégrable, introduit en 1931 par Linus Pauling pour décrire la glace. On peut le représenter comme un réseau 2D avec des conditions aux bords et dont les lignes horizontales et verticales sont munies de paramètres, dits spectraux, qui sont, dans un premier temps, tous distincts. En utilisant le formalisme de la Quantum Inverse Scattering Method (QISM), on montre que la fonction de partition associée à ce modèle s’exprime notamment sous la forme d’un déterminant qui dépend des différents paramètres spectraux et des conditions aux bords. On abordera également la question de la limite homogène, où les paramètres spectraux associés aux lignes horizontales (respectivement verticales) tendent vers une même valeur.

  • Elhadji Cisse Faye : An efficient sampling method for Bayesian image restoration with explicit score function-based priors. Image restoration is a challenging inverse problem that seeks to reconstruct an image from its degraded and noisy observations. Numerous methods have been developed to tackle this issue, including optimization-based algorithms. While these methods are computationally efficient and provide accurate point estimates, they lack the ability to quantify the uncertainty associated with the estimates. Bayesian approaches offer a compelling alternative by introducing a prior distribution on the unknown image and exploring the corresponding posterior distribution. However, Bayesian inference often necessitates the use of MCMC sampling techniques, which need to be highly efficient, especially in high-dimensional settings. We propose a new MCMC algorithm applicable to any Bayesian restoration task with an explicitly defined score function (i.e., the gradient of the log-prior). The proposed algorithm is tested on various image restoration problems, incorporating different deep learning-based priors, and demonstrates its robustness and effectiveness.

  • Igor Haladjian : Lien entre les J-groupes et les pavages triangulaires. On introduira les J-groupes et leur lien avec les groupes de réflexions complexes de rang 2, puis on verra un lien entre les J-groupes et les pavages triangulaires.

  • Paguiel Javan Hossie : Surrogate modeling of interactions in microbial communities through Physics-Informed Neural Networks. Les micro-organismes forment des communautés complexes, des microbiotes, qui influencent divers aspects de la santé de leur hôte. Le modèle de Lotka-Volterra généralisé (GLV) est couramment utilisé pour comprendre la dynamique des populations de micro-organismes, mais son application au microbiote se heurte à des difficultés dues au manque de données sur les bactéries et à la complexité des interactions. Ce travail préliminaire se concentre sur l’utilisation d’un Physics-Informed Neural Network (PINN) et de données synthétiques pour construire un modèle approché de l’évolution d’espèces bactériennes décrite par un modèle GLV. Cette approche est calibrée et testée sur plusieurs modèles qui diffèrent par leur taille et leur comportement dynamique.

  • Émile Pierret : Diffusion models for Gaussian distributions: Exact solutions and Wassersteins errors. Diffusion or score-based models recently showed high performance in image generation. They rely on a forward and a backward stochastic differential equations (SDE). The sampling of a data distribution is achieved by solving numerically the backward SDE or its associated flow ODE. Studying the convergence of these models necessitates to control four different types of error: the initialization error, the truncation error, the discretization and the score approximation. In this paper, we study theoretically the behavior of diffusion models and their numerical implementation when the data distribution is Gaussian. In this restricted framework where the score function is a linear operator, we derive the analytical solutions of the backward SDE and the probability flow ODE. We prove that these solutions and their discretizations are all Gaussian processes, which allows us to compute exact Wasserstein errors induced by each error type for any sampling scheme. Monitoring convergence directly in the data space instead of relying on Inception features, our experiments show that the recommended numerical schemes from the diffusion models literature are also the best sampling schemes for Gaussian distributions.