Responsable : Mikael Escobar-Bach
Séminaires à venir
Les Arbres Binaires de Recherche (abrégés en BST, pour Binary Search Trees) sont une structure de données populaire pour stocker une liste de nombres désordonnée. Un de leurs principaux avantages est que les opérations usuelles, telles l'ajout ou la requête de données, s'effectuent en temps proportionnel à la hauteur de l'arbre. Un résultat classique, dû à Luc Devroye, est que cette hauteur est logarithmique en le nombre de données si ces dernières arrivent dans un ordre aléatoire uniforme. Un défi intéressant est d'étendre cette asymptotique à d'autres modèles de permutations aléatoires, c'est-à-dire quand les données à stocker nous parviennent dans un ordre aléatoire non-uniforme. Dans cet exposé, nous allons considérer des permutations aléatoires dites "échantillonnées par un permuton". Il s'agit d'un modèle non-paramétrique de permutations aléatoires non-uniformes, se construisant à partir de processus ponctuels planaires. Ce modèle est fondamental dans la théorie des permutons, une théorie de limites d'échelle pour les permutations qui a grandement gagné en popularité dans les dix dernières années. Le but principal de cet exposé sera de présenter et motiver ce modèle, puis d'expliquer comment une condition assez simple sur le permuton échantillonneur assure au BST une hauteur logarithmique. Travail en commun avec Benoît Corsini et Valentin Féray.
La communauté microbienne complexe qui vit dans le système digestif humain, connue sous le nom de microbiote intestinal, remplit de nombreuses fonctions importantes pour son hôte et est désormais reconnue comme un facteur crucial dans le maintien de la santé. De nombreuses études suggèrent qu'il pourrait être utilisé comme outil médical pour le diagnostic, le pronostic et même la prédiction de la réponse au traitement d'un patient. Cependant, la structure spécifique du microbiote intestinal (notamment parcimonieuse, compositionnelle et avec une structure hiérarchique) a été peu prise en compte jusqu'à présent. En s'inspirant de l'approche Poisson-Log-Normal (PLN) développée pour modéliser les données de comptage dépendantes, nous introduisons le modèle PLN-Tree, spécifiquement conçu pour modéliser des données de comptage hiérarchiques. En intégrant des techniques d'inférence variationnelle structurée, nous proposons une procédure d'apprentissage adaptée et établissons des résultats d'identifiabilité. Des évaluations numériques sur des données synthétiques ainsi que sur des données de microbiote démontrent l'intérêt de prendre en compte la structure hiérarchique des données pour détecter des dépendances complexes.
Séminaires passés
Nous étudions comment la taille et la forme d’un arbre généalogique familial influencent la qualité de l’estimation du risque de mutation (simple ou double) à partir des phénotypes observés, en particulier dans le contexte des cancers du sein/ovaire liés aux mutations BRCA. Mathématiquement, il s'agit d'une chaîne de Markov cachée, indexée par un arbre. À l’aide de simulations, nous répondons à des questions clés : l’ajout de générations ou de proches (frères-sœurs, cousins) améliore-t-il toujours le pronostic ? Quelle est la valeur des descendants par rapport aux ascendants ? Quelles sont les sensibilités et spécificités typiques obtenues et comment varient-elles selon les paramètres du modèle ? Nous présentons aussi trois modèles concurrents (aucune cause génétique, mutation simple, double mutation). Deux stratégies d’inférence à partir de phénotypes familiaux seront utilisées : (i) ajustement classique fondé sur des résumés statistiques ; (ii) réseau de neurones. Nous discutons leur aptitude à sélectionner le bon modèle, estimer les paramètres latents et, in fine, prédire le statut mutationnel individuel.
La modélisation des évènements extrêmes (catastrophes climatiques, accidents industriels...) tient une place de plus en plus importante en actuariat. Ces évènements se caractérisent par une fréquence faible et un impact (humain, social, financier...) colossal. La détermination de primes adéquates est donc devenue un enjeu majeur pour les assureurs. Dans cet exposé, nous nous intéressons à la construction d'intervalles de confiance pour la prime de réassurance en présence de risques extrêmes (i.e., les montants de sinistres sont supposés suivre une loi appartenant au domaine d'attraction de Fréchet) et d'un niveau de rétention élevé. Une première méthode de construction, simple à mettre en oeuvre, repose sur la normalité asymptotique d'un estimateur de la prime (e.g., Necir et al, 2007). Nos simulations sur des échantillons de taille finie montrent néanmoins que la probabilité de couverture de ces intervalles peut être très inférieure au niveau nominal. Dans cet exposé, nous considérons donc une autre méthode. Elle est basée sur le principe du rapport de vraisemblance. Cette méthode et la méthode basée sur l'estimateur de la prime proposé par Necir et al (2007) sont évaluées par simulations, puis illustrées sur un jeu de données contenant les montants de sinistres incendie.
For general semi-martingales with independent increments, we analyse their last passage times above moving boundaries. We show that this problem closely links to the nonnegative solutions associated Kolmogorov backward differential equations. We outline the conditions under which these solutions become martingales and provide a representation of them in terms of last passage time survival probabilities. As an example, we look in details into exponential martingales associated to spectrally negative Levy processes and associated last passage problems. This is joint work with Aria Ahari and Tamborrino Massimiliano.
La problématique de la sélection de variables en grande dimension, caractérisée par un nombre significativement plus élevé de covariables que d'observations, est bien étudiée dans le contexte des modèles de régression standard. Cependant, peu d'outils sont actuellement disponibles pour aborder cette question dans le cadre des modèles non-linéaires à effets mixtes, où les données sont collectées de façon répétée sur plusieurs individus. Ma thèse a porté sur le développement d’une procédure de sélection de covariables en grande dimension pour ces modèles, en étudiant à la fois leurs implémentations pratiques et leurs propriétés théoriques. Cette méthode repose sur un prior bayésien de type spike-and-slab gaussien et l’algorithme SAEM (Stochastic Approximation of Expectation Maximisation Algorithm). Nous en illustrons l’intérêt à travers une application concrète visant à identifier des marqueurs génétiques potentiellement impliqués dans le processus de sénescence du blé tendre. D’un point de vue théorique, nous avons analysé les propriétés fréquentistes des distributions a posteriori et établi des taux de contraction a posteriori autour des vraies valeurs des paramètres dans un modèle non-linéaire à effets mixtes sous prior spike-and-slab discret, comparables à ceux observés dans des modèles linéaires.
On parlera de grenouilles qui se promènent, se réveillent les unes les autres et s'endorment quand elles restent seules trop longtemps. Ce système de particules en interaction, appelé marches aléatoires activées, a émergé comme une variante d'un modèle de tas de sable qui avait été proposé par des physiciens dans les années 1980 pour illustrer le phénomène de "criticité auto-organisée". L'exposé présentera un résultat récent qui montre que certaines prédictions des physiciens, qui semblent finalement fausses pour le tas de sable, s'avèrent correctes pour les marches aléatoires activées.
La loi d'une somme de variables aléatoires indépendantes uniformément distribuées sur [0,1] est appelée « loi d'Irwin-Hall ». D'autre part, le nombre de partitions d’un ensemble fini en un nombre donné de sous-ensembles est connu sous le nom de « nombre de Stirling de deuxième espèce ». Durant ma présentation, qui mêlera probabilité et combinatoire, je démontrerai qu'un moment de la loi d'Irwin-Hall peut s'exprimer comme un quotient entre un nombre de Stirling de deuxième espèce et un coefficient binomial.
Nous étudions les propriétés des solutions d'équations de Volterra stochastique à drift affine à l'échelle (c'est-à-dire avec une dérive affine de retour à la moyenne) en termes de stationnarité à la fois à un horizon fini et à long terme. En particulier, nous prouvons qu'une telle équation n'a jamais de régime stationnaire, sauf si le noyau est constant (c'est-à-dire que l'équation est une diffusion brownienne standard) ou dans certains contextes pathologiques complètement dégénérés. Nous introduisons un stabilisateur déterministe associé au noyau qui peut produire un régime stationnaire factice dans le sens où toutes les marginales partagent la même espérance et la même variance. Nous montrons également que les marginales d'un tel processus au départ de diverses valeurs initiales sont confluentes dans L^2 lorsque le temps tend vers l'infini. Nous établissons que pour certaines classes de coefficients de diffusion (racine carrée de polynômes quadratiques positifs) les solutions décalées dans le temps de telles équations de Volterra convergent faiblement fonctionnellement vers une famille de processus L^2-stationnaires partageant la même fonction de covariance. Nous appliquons ces résultats à une famille de modèles de volatilité grossière quadratiques stabilisés (lorsque le noyau K(t)=t^(H-\1/2})Gamma(H+\frac 12)}^(-1), 0
Classiquement si X et Y sont independants et si U=f(X,Y) et V=g(X,Y) il y a des dizaines d'exemples ou U et V sont aussi independants avec les fonctions f, g et les lois de X et Y bien choisies. Il y a caracterisation quand la reciproque est vraie. Exemples: Mark Kac avec f(X,Y)=X+Y et g(X,Y)=X-Y caracterise la loi normale. Eugen Lukacs avec f(X,Y)=X+Y et g(X,Y)=Y/X caracterise les lois gamma. Une abstraction et une classification de ces questions est due a la mathematicienne japonaise Sasada et ses collaborateurs, de facon assez profonde, qui ont exhibé de nombreux nouveaux exemples, chacun d'entre eux présentant un défi de caracterisation. Nous presentons trois exemples de complexité croissante auquels nous avons participé avec Jacek Wesolowski et autres coauteurs.
Classiquement si X et Y sont indépendants et si U=f(X,Y) et V=g(X,Y) il y a des dizaines d'exemples ou U et V sont aussi indépendants avec les fonctions f, g et les lois de X et Y bien choisies. Il y a caractérisation quand la réciproque est vraie. Exemples: Mark Kac avec f(X,Y)=X+Y et g(X,Y)=X-Y caractérise la loi normale. Eugen Lukacs avec f(X,Y)=X+Y et g(X,Y)=Y/X caractérise les lois gamma. Une abstraction et une classification de ces questions est due à la mathématicienne japonaise Sasada et ses collaborateurs. Ils ont exhibé de nombreux nouveaux exemples, chacun d'entre eux présentant un défi de caractérisation. Nous présentons trois exemples de complexité croissante auxquels nous avons participé avec Jacek Wesolowski et autres coauteurs.
Un nouvel estimateur de densité multivariée pour des variables stationnaires est obtenu à partir de la fonction caractéristique empirique seuillée. Cet estimateur ne dépend pas du choix des paramètres liés à la régularité de la densité; il est directement adaptatif. Nous établissons des inégalités oracle valables pour des séquences indépendantes, alpha-mélangées et tau-mélangées. Sur des classes de Sobolev anisotropes générales, l'estimateur s'adapte à la régularité de la densité inconnue mais réalise également une adaptabilité directionnelle. En particulier, si A est une matrice inversible, si les observations sont tirées de X dans Rd, il atteint la vitesse induite par la régularité de AX, qui peut être plus régulière que X. L'estimateur est facile à mettre, il dépend de la calibration d'un paramètre pour lequel nous proposons une procédure de sélection numérique innovante, utilisant la caractéristique d'Euler des zones seuillées. (En collaboration avec S. Ammous, J. Dedecker)
Stochastic diffusions are widely used to model physical phenomena, with noise playing a key role in capturing average effects that do not need to be explicitly defined. However, the proposed model is always an approximation and cannot exactly reproduce all aspects of the real system (such as the mean, variance, or higher-order moments). When a discrepancy between the model and the real system is observed, it is natural to refine the model to better account for this difference. Based on the Gibbs conditioning principle, this talk presents a systematic approach to constrain the distribution of a diffusion process at each time point. A thorough regularity analysis is performed on the corrected process, and quantitative stability is explored by perturbing the constraints, demonstrating the robustness of the correction procedure. This work is a collaboration with Giovanni Conforti and Julien Reygner.
The main topic of the talk is a nonparametric Bayesian approach to estimation of the volatility function of a stochastic differential equation (SDE) driven by a gamma process. The volatility function is assumed to be positive and Hölder continuous. We first show that the SDE admits a weak solution that is unique in law under a simple growth condition. In the statistical problem, the volatility function is always modelled a priori as piecewise constant on a partition of the real line, and we specify an inverse gamma prior on its coefficients. This leads to a straightforward procedure for posterior inference. We show posterior consistency and that the contraction rate of the posterior distribution depends on the Hölder exponent. Related work is on a Bayesian approach to volatility function estimation for diffusion processes and to intensity estimation for counting processes. Common features are modelling with a priori piecewise constant functions, whereas the underlying true ones are (Hölder) continuous. Moreover, the contraction rates turn out to be the same in all discussed situations. Based on joint work with Denis Belomestny, Shota Gugushvili, Moritz Schauer and Frank van der Meulen.
Motivated by the mean-field optimization model of the training of two-layer neural networks, we propose a novel method to approximate the invariant measures of a class of McKean-Vlasov diffusions. We introduce a proxy process that substitutes the mean-field interaction with self-interaction through a weighted occupation measure of the particle's past. If the McKean-Vlasov diffusion is the gradient flow of a convex mean-field potential functional, we show that the self-interacting process exponentially converges towards its unique invariant measure close to that of the McKean-Vlasov diffusion. As an application, we show how to learn the optimal weights of a two-layer neural network by training a single neuron.
Dans cette présentation, nous étudierons la prédiction conformelle dans le cadre de l'apprentissage fédéré "one-shot". L'objectif est de calculer des ensembles de prédictions marginalement et conditionnellement valides en un seul tour de communication entre les agents et le serveur. En utilisant le quantile-des-quantiles et la méthode split-CP, nous introduisons plusieurs algorithmes pour construire ces ensembles. Nos approches s'appuient sur de nouveaux résultats théoriques liés aux statistiques d'ordre et à l'analyse de la distribution bêta-bêta. Nous prouvons également des limites supérieures sur la couverture des ensembles lorsque les scores de non-conformité sont presque sûrement distincts. Pour les algorithmes avec des garanties conditionnelles, ces bornes sont du même ordre de grandeur que celles du cas centralisé. Remarquablement, cela implique que le cadre de l'apprentissage fédéré one-shot n'entraîne pas de perte significative par rapport au cas centralisé. Nos expériences confirment que ces algorithmes renvoient des ensembles de prédictions dont la couverture et la longueur sont similaires à celles obtenues dans un cadre centralisé.
Consider a doubly infinite branching tree in varying environment. The genealogy of the current generation backwards in time is uniquely determined by the coalescent point process (Ai: i=1,2,...) where Ai is the coalescent time between individuals i and i+1. In general, this process is not Markovian. We define a vector valued Markov process with the minimal amount of information to reconstruct the genealogy of the standing population.
In this talk we consider a $d$-dimensional stochastic process $X$ which arises from a Lévy process $Y$ by partial resetting, that is the position of the process $X$ at a Poisson moment equals $c$ times its position right before the moment, and it develops as $Y$ between these two consecutive moments, $c \in (0, 1)$. We focus on $Y$ being a strictly $\alpha$-stable process with $\alpha\in (0,2]$ having a transition density. We analyze properties of the transition density $p$ of the process $X$. We establish a series representation of $p$. We prove its convergence as time goes to infinity (ergodicity), and we show that the limit $\rho_{Y}$ (density of the ergodic measure) can be expressed by means of the transition density of the process $Y$ starting from zero, which results in closed concise formulae for its moments. We show that the process $X$ reaches a non-equilibrium stationary state. Furthermore, we check that $p$ satisfies the Fokker-Planck equation, and we confirm the harmonicity of $\rho_{Y}$ with respect to the adjoint generator. In detail, we discuss the following cases: Brownian motion, isotropic and $d$-cylindrical $\alpha$-stable processes for $\alpha \in (0,2)$, and $\alpha$-stable subordinator for $\alpha\in (0,1)$. We find the asymptotic behavior of $p(t;x,y)$ as $t\to +\infty$ while $(t,y)$ stays in a certain space-time region. For Brownian motion, we discover a phase transition, that is a change of the asymptotic behavior of $p(t;0,y)$ with respect to $\rho_{Y}(y)$. In the generated case of $Y_t=t$, our process $X$ becomes an additive-increase and multiplicative-decrease (aka growth-collapse) process that grows linearly in time and that experiences downward jumps at Poisson epochs that are proportional to its present position. For this process, and also for its reflected versions, we solve one- and two-sided exit problems that concern the identification of the laws of exit times from fixed intervals and half-lines.