• LAREMA UMR CNRS 6093
  • SFR MathSTIC
  • Faculté des sciences
  • Université d’Angers
  • INSMI
  • CNRS

Mathématiques à Angers

  • Accueil
    • Contacts et mentions légales
    • Nous visiter
    • Commissions du laboratoire et du département
    • Intranet
  • Annuaire
  • Les formations
    • Portails MI et MPC (L1)
    • Licence 2 de mathématiques
    • Licence 3 de mathématiques
    • Double Licence Mathématiques-Économie
    • Double licence Mathématiques-Informatique
    • Licence de mathématiques à distance
    • Master Mathématiques Fondamentales et Applications
    • Master Data Science
    • Master MEEF Mathématiques
    • Parcours d’étudiants
  • Recherche
    • Équipe Algèbre et Géométries
    • Équipe Analyse, Probabilités et Statistique
    • Publications du LAREMA
    • Séminaires du LAREMA
  • Diffusion scientifique
  • Prix Ducrot
Vous êtes ici : Accueil / Séminaires du LAREMA / Séminaire de probabilités et statistique

Séminaire de probabilités et statistique

Responsable : Mikael Escobar-Bach

Séminaires à venir

We will start by a short presentation of Gaussian graphical models in statistics, without and with colorings. In a common research with P. Graczyk, H. Ishi and B. Kolodziejek, we study Bayesian model selection in colored Gaussian graphical models (CGGMs), which combine sparsity of conditional independencies with symmetry constraints, encoded by vertex- and edge-colored graphs. A key computational bottleneck in Bayesian inference for CGGMs is the evaluation of the Diaconis–Ylvisaker normalizing constants, given by Gamma-type Laplace integrals over cones of precision matrices with prescribed zeros and equality constraints. We introduce a new class of models for which these normalizing constants admit closed-form expressions. On the algebraic side, we identify conditions on the space of precision matrices that guarantee tractability of the associated integrals, leading to the notions of Block-Cholesky (BC) spaces. On the combinatorial side, we characterize the colored graphs inducing such spaces via a color perfect elimination ordering and a 2-path regularity condition. This class strictly extends decomposable graphs in the uncolored setting and contains all permutation invariant models associated with decomposable graphs. In the one-color case, our framework reveals a close connection with Bose–Mesner algebras. For models defined on BC spaces, we derive explicit closed-form formulas for the normalizing constants in terms of a finite collection of structure constants and propose an efficient method for computing these quantities in the commutative case. Our results substantially broaden the range of CGGMs amenable to Bayesian structure learning in Big Data applications.

Random fields are popular models in statistics and machine learning for spatially dependent data on Euclidian domains. However, in many applications, data is observed on non-Euclidian domains such as street networks, or river networks. In this case, it is much more difficult to construct valid random field models. In this talk, we discuss some recent approaches to modeling data in this setting, and in particular define a new class of Gaussian processes on compact metric graphs. The proposed models, the Whittle-Matérn fields, are defined via a stochastic partial differential equation on the compact metric graph and are a natural extension of Gaussian fields with Matérn covariance functions on Euclidean domains to the non-Euclidean metric graph setting.

TBA

TBA

TBA

TBA

TBA

In this talk, we address the stability problem of the famous Brascamp-Lieb inequality for strictly log-concave probability measures on the Euclidean space. More precisely, if a given function almost satisfies the equality in the BL inequality, is it true that it is close in some sense to the underlying extremal functions? Using a spectral interpretation of the BL inequality, we prove that the distance to the extremal functions in quadratic norm is of order square root of the deficit parameter, and involves the second positive eigenvalue of a convenient diffusion operator we wish to estimate. Our results are illustrated by some examples for which the usual uniform convexity assumption on the potential is relaxed. This is a joint work with M. Bonnefont (Institut de Mathématiques de Bordeaux) and J. Serres (Sorbonne Université).

Séminaires passés

Mixed-phenotype acute leukemia (MPAL) is a rare disease with poor prognosis. So far, no standard approach has been established as the “know-how” of MPAL is based only on retrospective analyses performed on small groups of patients. In this talk we describe the Bayesian technique combined with profile likelihood: a statistical technique whose main advantage is the ability to precisely examine the uncertainty of one selected parameter in complex models. We will show the results obtained with fruitful collaboration with the Polish Adult Leukemia Group.

Imaginons qu'on joue au démineur sur une grand grille, et qu’on place des mines au hasard avec une densité prescrite. On observe alors une transition de phase (grossière), c’est à dire que si notre densité est en dessous d’un ordre de grandeur critique, alors on peut toujours gagner (et avec un algoithme de complexité linéaire), alors qu’au dessus de cet ordre de grandeur critique, on ne peut jamais gagner, ceci étant dû à l’apparition de motifs ambigus.

The Covariance Matrix Adaptation Evolution Strategy (CMA-ES) is a stochastic derivative-free optimization algorithm designed to solve difficult (e.g., ill-conditioned, multi-modal) optimization problems. In this presentation, I will talk about the recent convergence results that are obtained by studying the stability of a Markov chain defined by the normalization of the state variables of CMA-ES. Even so CMA-ES has been the state-of-the-art algorithm for black-box optimization in moderate dimensions for more than 20 years, this is its first convergence proof. Joint work with Anne Auger and Nikolaus Hansen.

In this talk, we address the stability problem of the famous Brascamp-Lieb inequality for strictly log-concave probability measures on the Euclidean space. More precisely, if a given function almost satisfies the equality in the BL inequality, is it true that it is close in some sense to the underlying extremal functions? Using a spectral interpretation of the BL inequality, we prove that the distance to the extremal functions in quadratic norm is of order square root of the deficit parameter, and involves the second positive eigenvalue of a convenient diffusion operator we wish to estimate. Our results are illustrated by some examples for which the usual uniform convexity assumption on the potential is relaxed. This is a joint work with M. Bonnefont (Institut de Mathématiques de Bordeaux) and J. Serres (Sorbonne Université).

Conformal prediction methods are statistical tools designed to quantify uncertainty and generate predictive sets with guaranteed coverage probabilities. The work I will present, introduces a refinement to these methods for classification tasks, specifically tailored for scenarios where multiple observations (multi-inputs) of a single instance are available at prediction time. Our approach is particularly motivated by applications in citizen science, where multiple images of the same plant or animal are captured by individuals. Our method integrates the information from each observation into conformal prediction, enabling a reduction in the size of the predicted label set while preserving the required class-conditional coverage guarantee. The approach is based on the aggregation of conformal p-values computed from each observation of a multi-input. By exploiting the exact distribution of these p-values, we propose a general aggregation framework using an abstract scoring function, encompassing many classical statistical tools. Knowledge of this distribution also enables refined versions of standard strategies, such as majority voting. The method is evaluated on simulated and real data, with a particular focus on Pl@ntNet, a citizen science platform that facilitates the collection and identification of plant species through user-submitted images. This work has been done in collaboration with Joseph Salmon (UM) and Mohamed Hebiri (Université Gustave Eiffel).

La marche aléatoire sur le processus d'exclusion symétrique est un exemple de marche aléatoire en environnement dynamique. Ce modèle se compose de deux parties : premièrement l'environnement qui est composé de particules dont la dynamique est donnée par un processus d'exclusion symétrique. Deuxièmement, un marcheur qui évolue dans cet environnement selon la dynamique suivante : à chaque temps entier il effectue un saut selon une première distribution si une particule se trouve sur sa position ou selon une seconde distribution sinon. Bien que le modèle soit relativement simple, il a l'inconvénient d'être conservatif et de mélanger lentement ce qui entraîne l'apparition de fortes corrélations dans les positions des particules. En dimension 1, grâce à une propriété de monotonie, le modèle est plutôt bien compris mais en plus grande dimension seuls des résultats perturbatifs sont connus. Nous montrons, pour une large gamme de paramètres, une loi des grands nombres en dimension 5 et plus et un théorème central limite en dimension 9 et plus. Ce modèle est également l'occasion de présenter la propriété de Rayleigh forte qui "caractérise" les corrélations de l'environnement mais qui a un énoncé assez original. Travail en collaboration avec Daniel Kious et Guillaume Conchon-Kerjan

During an epidemic outbreak, decision makers crucially need accurate and robust tools to monitor the pathogen propagation. The effective reproduction number, defined as the expected number of secondary infections stemming from one contaminated individual, is a state-of-the-art indicator quantifying the epidemic intensity. Numerous estimators have been developed to precisely track the reproduction number temporal evolution. Yet, COVID-19 pandemic surveillance raised unprecedented challenges due to the poor quality of worldwide reported infection counts. When monitoring the epidemic in different territories simultaneously, leveraging the spatial structure of data significantly enhances both the accuracy and robustness of reproduction number estimates. However, this requires a good estimate of the spatial structure. To tackle this major limitation, the present work proposes a joint estimator of the reproduction number and connectivity structure. The procedure is assessed through intensive numerical simulations on carefully designed synthetic data and illustrated on real COVID-19 spatiotemporal infection counts. Joint work with Barbara Pascal.

We consider a renewal process which models a cumulative shock model that fails when the accumulation of shocks up-crosses a certain threshold. The ratio limit properties of the probabilities of non-failure after n cumulative shocks are studied. We establish that the ratio of survival probabilities converges to the probability that the renewal epoch equals zero. This limit holds for any renewal process, subject only to mild regularity conditions on the individual shock random variable. Precision on the rates of convergence are provided depending on the support structure and the regularity of the distribution. Arguments are provided to highlight the coherence between this new results and the well known Theory of Large Deviation.

In this talk, we consider the numerical approximation of a generalized class of radial Dunkl processes, which encompasses Bessel processes, Dyson's Brownian motions, and Wishart processes. We present modified Euler-Maruyama schemes and analyze their convergence rates. This is joint work with Dai Taguchi (Kansai University) and Do Minh Thang (The Chinese University of Hong Kong, Shenzhen)

I will discuss results on the Yaglom limit of Lipschitz cone for unimodal Levy processes on R^d. We prove universality of the Yaglom limit among all unimodal Lévy processes sufficiently close to the isotropic alpha-stable Lévy process (processes from domain of attraction of stable processes at infinity). A qualitatively different rescaling can be used for different processes, so the universality of the Yaglom limit for the considered class of processes refers to the limit but not the rescaling.

La communauté microbienne complexe qui vit dans le système digestif humain, connue sous le nom de microbiote intestinal, remplit de nombreuses fonctions importantes pour son hôte et est désormais reconnue comme un facteur crucial dans le maintien de la santé. De nombreuses études suggèrent qu'il pourrait être utilisé comme outil médical pour le diagnostic, le pronostic et même la prédiction de la réponse au traitement d'un patient. Cependant, la structure spécifique du microbiote intestinal (notamment parcimonieuse, compositionnelle et avec une structure hiérarchique) a été peu prise en compte jusqu'à présent. En s'inspirant de l'approche Poisson-Log-Normal (PLN) développée pour modéliser les données de comptage dépendantes, nous introduisons le modèle PLN-Tree, spécifiquement conçu pour modéliser des données de comptage hiérarchiques. En intégrant des techniques d'inférence variationnelle structurée, nous proposons une procédure d'apprentissage adaptée et établissons des résultats d'identifiabilité. Des évaluations numériques sur des données synthétiques ainsi que sur des données de microbiote démontrent l'intérêt de prendre en compte la structure hiérarchique des données pour détecter des dépendances complexes.

Les Arbres Binaires de Recherche (abrégés en BST, pour Binary Search Trees) sont une structure de données populaire pour stocker une liste de nombres désordonnée. Un de leurs principaux avantages est que les opérations usuelles, telles l'ajout ou la requête de données, s'effectuent en temps proportionnel à la hauteur de l'arbre. Un résultat classique, dû à Luc Devroye, est que cette hauteur est logarithmique en le nombre de données si ces dernières arrivent dans un ordre aléatoire uniforme. Un défi intéressant est d'étendre cette asymptotique à d'autres modèles de permutations aléatoires, c'est-à-dire quand les données à stocker nous parviennent dans un ordre aléatoire non-uniforme. Dans cet exposé, nous allons considérer des permutations aléatoires dites "échantillonnées par un permuton". Il s'agit d'un modèle non-paramétrique de permutations aléatoires non-uniformes, se construisant à partir de processus ponctuels planaires. Ce modèle est fondamental dans la théorie des permutons, une théorie de limites d'échelle pour les permutations qui a grandement gagné en popularité dans les dix dernières années. Le but principal de cet exposé sera de présenter et motiver ce modèle, puis d'expliquer comment une condition assez simple sur le permuton échantillonneur assure au BST une hauteur logarithmique. Travail en commun avec Benoît Corsini et Valentin Féray.

Nous étudions comment la taille et la forme d’un arbre généalogique familial influencent la qualité de l’estimation du risque de mutation (simple ou double) à partir des phénotypes observés, en particulier dans le contexte des cancers du sein/ovaire liés aux mutations BRCA. Mathématiquement, il s'agit d'une chaîne de Markov cachée, indexée par un arbre. À l’aide de simulations, nous répondons à des questions clés : l’ajout de générations ou de proches (frères-sœurs, cousins) améliore-t-il toujours le pronostic ? Quelle est la valeur des descendants par rapport aux ascendants ? Quelles sont les sensibilités et spécificités typiques obtenues et comment varient-elles selon les paramètres du modèle ? Nous présentons aussi trois modèles concurrents (aucune cause génétique, mutation simple, double mutation). Deux stratégies d’inférence à partir de phénotypes familiaux seront utilisées : (i) ajustement classique fondé sur des résumés statistiques ; (ii) réseau de neurones. Nous discutons leur aptitude à sélectionner le bon modèle, estimer les paramètres latents et, in fine, prédire le statut mutationnel individuel.

La modélisation des évènements extrêmes (catastrophes climatiques, accidents industriels...) tient une place de plus en plus importante en actuariat. Ces évènements se caractérisent par une fréquence faible et un impact (humain, social, financier...) colossal. La détermination de primes adéquates est donc devenue un enjeu majeur pour les assureurs. Dans cet exposé, nous nous intéressons à la construction d'intervalles de confiance pour la prime de réassurance en présence de risques extrêmes (i.e., les montants de sinistres sont supposés suivre une loi appartenant au domaine d'attraction de Fréchet) et d'un niveau de rétention élevé. Une première méthode de construction, simple à mettre en oeuvre, repose sur la normalité asymptotique d'un estimateur de la prime (e.g., Necir et al, 2007). Nos simulations sur des échantillons de taille finie montrent néanmoins que la probabilité de couverture de ces intervalles peut être très inférieure au niveau nominal. Dans cet exposé, nous considérons donc une autre méthode. Elle est basée sur le principe du rapport de vraisemblance. Cette méthode et la méthode basée sur l'estimateur de la prime proposé par Necir et al (2007) sont évaluées par simulations, puis illustrées sur un jeu de données contenant les montants de sinistres incendie.

For general semi-martingales with independent increments, we analyse their last passage times above moving boundaries. We show that this problem closely links to the nonnegative solutions associated Kolmogorov backward differential equations. We outline the conditions under which these solutions become martingales and provide a representation of them in terms of last passage time survival probabilities. As an example, we look in details into exponential martingales associated to spectrally negative Levy processes and associated last passage problems. This is joint work with Aria Ahari and Tamborrino Massimiliano.

La problématique de la sélection de variables en grande dimension, caractérisée par un nombre significativement plus élevé de covariables que d'observations, est bien étudiée dans le contexte des modèles de régression standard. Cependant, peu d'outils sont actuellement disponibles pour aborder cette question dans le cadre des modèles non-linéaires à effets mixtes, où les données sont collectées de façon répétée sur plusieurs individus. Ma thèse a porté sur le développement d’une procédure de sélection de covariables en grande dimension pour ces modèles, en étudiant à la fois leurs implémentations pratiques et leurs propriétés théoriques. Cette méthode repose sur un prior bayésien de type spike-and-slab gaussien et l’algorithme SAEM (Stochastic Approximation of Expectation Maximisation Algorithm). Nous en illustrons l’intérêt à travers une application concrète visant à identifier des marqueurs génétiques potentiellement impliqués dans le processus de sénescence du blé tendre. D’un point de vue théorique, nous avons analysé les propriétés fréquentistes des distributions a posteriori et établi des taux de contraction a posteriori autour des vraies valeurs des paramètres dans un modèle non-linéaire à effets mixtes sous prior spike-and-slab discret, comparables à ceux observés dans des modèles linéaires.

On parlera de grenouilles qui se promènent, se réveillent les unes les autres et s'endorment quand elles restent seules trop longtemps. Ce système de particules en interaction, appelé marches aléatoires activées, a émergé comme une variante d'un modèle de tas de sable qui avait été proposé par des physiciens dans les années 1980 pour illustrer le phénomène de "criticité auto-organisée". L'exposé présentera un résultat récent qui montre que certaines prédictions des physiciens, qui semblent finalement fausses pour le tas de sable, s'avèrent correctes pour les marches aléatoires activées.

La loi d'une somme de variables aléatoires indépendantes uniformément distribuées sur [0,1] est appelée « loi d'Irwin-Hall ». D'autre part, le nombre de partitions d’un ensemble fini en un nombre donné de sous-ensembles est connu sous le nom de « nombre de Stirling de deuxième espèce ». Durant ma présentation, qui mêlera probabilité et combinatoire, je démontrerai qu'un moment de la loi d'Irwin-Hall peut s'exprimer comme un quotient entre un nombre de Stirling de deuxième espèce et un coefficient binomial.

Nous étudions les propriétés des solutions d'équations de Volterra stochastique à drift affine à l'échelle (c'est-à-dire avec une dérive affine de retour à la moyenne) en termes de stationnarité à la fois à un horizon fini et à long terme. En particulier, nous prouvons qu'une telle équation n'a jamais de régime stationnaire, sauf si le noyau est constant (c'est-à-dire que l'équation est une diffusion brownienne standard) ou dans certains contextes pathologiques complètement dégénérés. Nous introduisons un stabilisateur déterministe associé au noyau qui peut produire un régime stationnaire factice dans le sens où toutes les marginales partagent la même espérance et la même variance. Nous montrons également que les marginales d'un tel processus au départ de diverses valeurs initiales sont confluentes dans L^2 lorsque le temps tend vers l'infini. Nous établissons que pour certaines classes de coefficients de diffusion (racine carrée de polynômes quadratiques positifs) les solutions décalées dans le temps de telles équations de Volterra convergent faiblement fonctionnellement vers une famille de processus L^2-stationnaires partageant la même fonction de covariance. Nous appliquons ces résultats à une famille de modèles de volatilité grossière quadratiques stabilisés (lorsque le noyau K(t)=t^(H-\1/2})Gamma(H+\frac 12)}^(-1), 0

Les principaux séminaires

  • Colloquium
  • Séminaire de probabilités et statistique
  • Séminaires systèmes dynamiques et géométrie
  • Séminaire de topologie et géométrie algébriques
  • Séminaire Probabilités, Physique Mathématique et Analyse (2PMA)
  • Séminaire Quimpériodique
  • Journées réelles du CHL, Angers-Brest-Nantes-Rennes

Site hébergé par l'Université d'Angers.
Directeurs de la publication : Laurent Meersseman et Jean-Philippe Monnier