Responsable : Mikael Escobar-Bach
Séminaires à venir
Nous étudions une marche aléatoire simple en dimension 2 avec des contraintes sur les axes. La motivation provient de la physique lorsque des particules sont soumises à des champs locaux. Dans notre cas, nous supposons qu'une particule évolue librement dans les cônes, mais lorsqu'elle touche les axes, elle subit une force de rappel vers l'origine. Pour des contraintes fortes nous montrons l’existence d’une structure de renouvellement, impliquant notamment un résultat ergodique pour les parties de la trajectoire de la particule restreintes aux axes. C’est un travail commun avec Pierre Debs.
TBA
Une épidémie est définie par la propagation rapide d'une maladie contagieuse aux effets significatifs, touchant simultanément un grand nombre de personnes. Deux cas sont possibles : une augmentation d'une maladie endémique (c'est à dire où la présence de la maladie est permanente mais contenue à un taux constant dans une région ou une population particulière), ou l'apparition d'un grand nombre de malades là où il n'y avait rien avant. Le terme de pandémie n'a malheureusement aujourd'hui plus de secret pour personne. C'est une épidémie à l'échelle supérieure, quand le virus est capable de franchir les océans (sur une zone géographique très étendue en un temps assez court), quand il touche différentes sociétés. On caractérise les méthodes utilisées pour étudier ce type de données en trois grandes classes : les méthodes spécifiques aux séries temporelles (modèles autorégressifs avec pénalisation LASSO, RIDGE et ElasticNet), les méthodes d'apprentissage statistique (Random Forest, SVM et LSTM) et les modèles structuraux (comme les modèles compartimentaux gérés par des systèmes d’équations différentielles). Les deux premiers sont classiquement utilisés pour la prédiction bien qu'ils tendent aujourd'hui à répondre à des problématiques explicatives. Le dernier avec le célèbre modèle SIR (Susceptible-Infectious-Removed) a un regain de popularité grâce à la notion de R0 vulgarisé pour communiquer sur la COVID19. Je présenterai des modèles de ces trois grandes classes, utilisés pour la propagation d'épidémies, que nous avons appliqués à la grippe, la gastro-entérite et la COVID19, et la recherche méthodologique mathématique et statistique que nous avons développée.
Séminaires passés
Dans ce travail, nous considérons le problème de l'analyse statistique des modèles FARIMA (Fractionally AutoRegressive Integrated Moving-Average) induits par un bruit blanc non corrélé mais qui peut contenir des dépendances non linéaires très générales. Ces modèles sont appelés FARIMA faibles et permettent de modéliser des processus à mémoire longue présentant des dynamiques non linéaires, de structures souvent non-identifiées, très générales. Relâcher l’hypothèse d'indépendance sur le terme d'erreur, une hypothèse habituellement imposée dans la littérature, permet aux modèles FARIMA faibles d'élargir considérablement leurs champs d'application en couvrant une large classe de processus à mémoire longue non linéaires.
(collaboration avec Alexandre Legrand) Nous considérons un modèle bidimensionnel d'une marche aléatoire en auto-interaction, soumise à un accrochage le long d'un mur dur horizontal. Lorsque l'intensité de l'auto-interaction est suffisamment grande, le système entre dans une phase effondrée à l'intérieur de laquelle la marche aléatoire se replie sur elle-même pour former une boule compacte comprise entre une enveloppe supérieure et une enveloppe inférieure. Une particularité de ce modèle est que cette phase effondrée peut être divisée en deux régimes séparés par une courbe critique explicite. Ainsi, lorsque l'intensité de l'accrochage est faible, l'enveloppe inférieure s'éloigne du mur dur, tandis qu'elle est accrochée le long de la paroi dès que l'intensité de l'accrochage est suffisamment forte. Dans le cadre de cet exposé, nous nous concentrerons sur cette dernière transition.
Dans cet exposé, j'introduirai d'abord la notion d'expectile, utilisée comme alternative au classique quantile (qui connait quelques écueils théoriques). Je proposerai ensuite quelques méthodes pour estimer des quantiles ou expectiles dits extrêmes, c'est à dire lorsque le niveau de quantile (ou d'expectile) est très proche de 1, car dans un tel cas, les outils statistiques classiques tels que la statistique d'ordre renvoient systématiquement le maximum de l'échantillon, et mènent donc à une estimation non-consistente du quantile ou de l'expectile. Je donnerai alors les propriétés asymptotiques de ces estimateurs "extrapolés". Nous verrons (en analysant les résultats théoriques et quelques simulations) que ces estimateurs souffrent d'un énorme biais, et que les intervalles de confiance construits avec les résultats théoriques sont très peu efficaces en pratique. J'introduirai alors des estimateurs à biais réduits, ainsi que des intervalles de confiance corrigés qui permettent d'utiliser efficacement ces estimateurs. Finalement, je discuterai le cas de la régression de quantiles et d'expectiles extrêmes, c'est à dire à leur estimation conditionnellement à une covariable. Quelques applications en assurance, finance et environnement seront proposées.
Dans cet exposé, nous nous intéresserons à une population cellulaire, modélisée par un processus de branchement bi-type. Initialement, les cellules sont toutes de type 0, associé à un taux de croissance négatif. Les mutations vers le type 1 sont supposées rares et aléatoires, et conduisent à la survie des cellules (taux de croissance positif), ce qui modélise donc l'acquisition d'une résistance. Les cellules sont également porteuses de mutations neutres, qui n'affectent pas leur type. Nous décrirons l'espérance du "Site Frequency Spectrum" (SFS), qui est un indice de la distribution des mutations neutres dans une population, sous des hypothèses de mutations (résistantes) rares et d'une grande population initiale. Ce travail a été réalisé en collabration avec Céline Bonnet (ENS de Lyon).
Les barycentres, ou moyennes de Fréchet, offrent une généralisation naturelle de la notion de moyenne statistique aux espaces métriques. De même que dans le cas euclidien, des théorèmes limites, tels la loi des grands nombres et le théorème de la limite centrale, ont été établis sous des hypothèses assez générales. Dans cet exposé, je définirai la notion de barycentres et je poserai un cadre – celui des espaces métriques de courbure négative – dans lequel des résultats non asymptotiques peuvent être démontrés. Des exemples simples et pratiques seront abordés. L’exposé sera inspiré d’un travail récent en collaboration avec Jordan Serres (ENSAE).
The block maxima method is one of the most popular approaches for extreme value analysis with? ? independent and identically distributed observations in the domain of attraction of an extreme value distribution. The lack of a rigorous study on the Bayesian inference in this context has limited its use for statistical analysis of extremes. We propose an empirical Bayes procedure for inference on the block maxima law and its related quantities. We show that the posterior distributions of the tail index of the data distribution and of the return levels (representative of future extreme episodes) are consistent and asymptotically normal. We also study the properties of the posterior predictive distribution, the key tool in Bayesian probabilistic forecasting. Simulations show its excellent inferential performances already with modest sample sizes. The utility of our proposal is showcased analysing extreme winds generated by hurricanes in Southeastern US. Joint work with Stefano Rizzelli (Catholic University, Milan, Italy)
In this talk, we will provide new concentration inequalities for suprema of (possibly) non-centered and unbounded empirical processes associated with independent and identically distributed random variables. In particular, we establish Fuk-Nagaev type inequalities with the optimal constant in the moderate deviation bandwidth. We will also explain the use of these results in statistical applications (ongoing research).
In this seminar we first describe a class of one-dimensional Markov processes with continuous sample paths which shows singular behavior at a point, let us say barrier. The barrier is semi-permeable ou semi-reflecting, or sticky, or plays the role of a threshold which makes the behavior change above and below. Starting from an observation of a trajectory, it is natural to try to detect these behaviors, which are encoded in some parameters. The approximation of the local time (think of the time spent on an infinitesimal interval around the barrier) allows us to construct estimators for the parameters and to show asymptotic mixed normality properties. This talk is partially based on a joint work with A. Anagnostakis.
We consider the problem of sequential probability assignment in the Gaussian setting, where one aims to predict (or equivalently compress) a sequence of real-valued observations almost as well as the best Gaussian distribution with mean constrained to a general domain. First, in the case of a convex constraint set K, we express the hardness of the prediction problem (the minimax regret) in terms of the intrinsic volumes of K. We then establish a comparison inequality for the minimax regret in the general nonconvex case, which underlines the metric nature of this quantity and generalizes the Slepian-Sudakov-Fernique comparison principle for the Gaussian width. Motivated by this inequality, we present a sharp (up to universal constants) characterization of the considered functional for a general nonconvex set, in terms of metric complexity measures. We finally relate and contrast our findings with classical asymptotic results in information theory.
Dans cette présentation, nous définissons le schéma d’un vecteur relativement à une fonction convexe comme la classe d’équivalence pour la relation «avoir le même sous-différentiel». Nous verrons que cette notion de schéma est pertinente pour une jauge polyédrique ; par exemple pour la norme 1, la norme 1 ordonnée, la norme infini, la variation totale... Puis, nous donnerons des conditions de recouvrement du schéma des coefficients de régression inconnus dans le cadre du modèle linéaire. De nombreux exemples seront donnés pour des estimateurs classiques dont le terme de pénalité est une jauge polyédrique : LASSO, SLOPE, LASSO généralisé...
We prove a functional limit theorem in a space of analytic functions for a class of random Dirichlet series. As a consequence, we show that the point processes of complex and real zeros of the aforementioned random processes converge vaguely, thereby obtaining a universality result. Finally, we shall discuss connections with other popular probabilistic models: determinantal and Pfaffian point processes and hyperbolic Gaussian analytic functions.
La question de l'estimation de quantiles extrêmes (c'est-à-dire de quantiles dont l'ordre est très proche de 1) est récurrente dans de nombreux domaines d'application. Citons par exemple l'assurance pour l'estimation de mesures de risque ou l'hydrologie pour l'obtention de niveau de retour. Alors que de nombreux travaux sont consacrés à l'estimation ponctuelle de quantiles extrêmes, très peu se sont penchés sur la construction d'intervalle de confiance. Dans ce travail, nous présentons une méthode permettant de construire des intervalles de confiance pour des quantiles extrêmes lorsque les observations sont issues d'une loi à queue lourde. Elle repose sur un résultat classique annonçant que la variable aléatoire obtenue en appliquant la fonction de survie à une statistique d'ordre suit une loi bêta. Ceci permet de construire un intervalle de confiance pour un quantile classique qui est ensuite extrapolé en multipliant par un facteur dépendant d'un estimateur de l'indice des valeurs extrêmes. Le principal résultat théorique est l'obtention de la convergence de la probabilité empirique de recouvrement vers le niveau nominal de l'intervalle de confiance. A l'aide de ce résultat, une correction de biais est proposée permettant d'améliorer la probabilité de recouvrement empirique. Le comportement de l'intervalle de confiance est également étudié au travers de nombreuses simulations et d'un jeu de données réelles.
We investigate Martin boundary for a non-centered random walk on $\Z^d$ killed up on the time $\tau_\vartheta$ of the first exit from a convex cone with a vertex at $0$. The approach combines large deviation estimates, the ratio limit theorem and the ladder height process. The results are applied to identify the Martin boundary for a random walk killed upon the first exit from a convex cone having $C^1$ boundary.
The majority of machine learning methods can be regarded as the minimization of an unavailable risk function. To optimize the latter, given samples provided in a streaming fashion, stochastic gradient descent is a common tool, but this last one can be very sensitive to ill-conditioned problems. In order to overcome this, we focus on Stochastic Newton methods, and so, without requiring the inversion of a Hessian estimate at each iteration. Under mild assumptions, which are verified for instance in the case of linear, logistic or softmax regressions, we will see that the estimates are asymptotically efficient. Numerical experiments on simulated data give the empirical evidence of the pertinence of the proposed methods, which outperform popular competitors.
The purpose of this talk, which is on work in progress, is to present some fluctuation-theoretic identities for AR(1) processes that extend prominent analogs for classical random walks and functionals thereof. The first part will be devoted to a very short review of some classical fluctuation theory for random walks and an introduction of AR(1) processes, naturally with a focus on those properties that are needed for this talk.
Nous présentons des résultats en grande dimension sur la norme Hilbert-Schmidt d’une matrice uniformément distribuée dans la boule unité au sens de la p-norme des valeurs singulières. Nous nous appuyons sur la connexion avec l’analyse spectrale des beta-ensembles en adaptant notamment certains résultats de fluctuation dus à Bekerman, Leblé et Serfaty. Lorsque p>3, cela nous permet d’établir une version forte de la conjecture de la variance restreinte aux p-boules de Schatten auto-adjointes. Travail en commun avec Matthieu Fradelizi, Olivier Guédon et Pierre-André Zitt.
Dans cet exposé seront présentés des résultats de percolation orientée sur triangulations causales aléatoires, un modèle de cartes aléatoires dont l’étude mathématique est encore récente. Pour résumer simplement, les triangulations causales sont des graphes planaires construits en ajoutant des arêtes « horizontales » entre les sommets situés à même hauteur dans un arbre de taille infinie, de façon à constituer des cycles. Quand l’arbre sous-jacent est un arbre de Galton-Watson surcritique, conditionné à survivre, avec une loi de reproduction géométrique de moyenne m>1, le processus de percolation orientée connaît une transition de phase en un seuil p_c(m), non trivial, dont une expression est connue. Au-dessus de ce seuil, il y a dans la carte, presque sûrement, un nombre infini de clusters infinis. Un résultat typique pour des graphes dont la géométrie est hyperbolique. Différents exposants critiques du modèle peuvent aussi être exhibés. Enfin, au seuil de criticalité, les grands clusters remis à l’échelle convergent pour la distance de Gromov-Hausdorff vers l’arbre brownien. Les démonstrations de ces résultats sont basées sur un processus d’épluchage markovien de la carte, une technique éprouvée dans l’étude de cartes aléatoires planaires.