Spelling suggestions: "subject:"statistique"" "subject:"qtatistique""
141 |
Bayesian adaptive variable selection in linear models : a generalization of Zellner's informative g-priorNdiaye, Djibril 19 November 2023 (has links)
Bayesian inference is about recovering the full conditional posterior distribution of the parameters of a statistical model. This exercise, however, can be challenging to undertake if the model specification is not available a priori, as is typically the case. This thesis proposes a new framework to select the subset of regressors that are the relevant features that explain a target variable in linear regression models. We generalize Zellner's g-prior with a random matrix, and we present a likelihood-based search algorithm, which uses Bayesian tools to compute the posterior distribution of the model parameters over all possible models generated, based on the maximum a posteriori (MAP). We use Markov chain Monte Carlo (MCMC) methods to gather samples of the model parameters and specify all distributions underlying these model parameters. We then use these simulations to derive a posterior distribution for the model parameters by introducing a new parameter that allows us to control how the selection of variables is done. Using simulated datasets, we show that our algorithm yields a higher frequency of choosing the correct variables and has a higher predictive power relative to other widely used variable selection models such as adaptive Lasso, Bayesian adaptive Lasso, and relative to well-known machine learning algorithms. Taken together, this framework and its promising performance under various model environments highlight that simulation tools and Bayesian inference methods can be efficiently combined to deal with well-known problems that have long loomed the variable selection literature. / L'inférence bayésienne consiste à retrouver la distribution conditionnelle a posteriori complète des paramètres d'un modèle statistique. Cet exercice, cependant, peut être difficile à entreprendre si la spécification du modèle n'est pas disponible a priori, comme c'est généralement le cas. Cette thèse propose une nouvelle approche pour sélectionner le sous-ensemble de régresseurs qui sont les caractéristiques pertinentes qui expliquent une variable cible dans les modèles de régression linéaire. Nous généralisons le g-prior de Zellner avec une matrice aléatoire et nous présentons un algorithme de recherche basé sur la vraisemblance, qui utilise des outils bayésiens pour calculer la distribution a posteriori des paramètres du modèle sur tous les modèles possibles générés. La sélection du modèle se fera sur la base du maximum a posteriori (MAP). Nous utilisons les méthodes de Monte Carlo par chaînes de Markov pour échantillonner suivant les distributions a posteriori de ces paramètres du modèle. Nous utilisons ensuite ces simulations pour dériver une estimation a posteriori des paramètres du modèle en introduisant un autre paramètre qui nous permet de contrôler la manière dont la sélection de la variable est effectuée. À l'aide de données simulées, nous montrons que notre méthode donne une fréquence plus élevée de choix des variables importantes et a un pouvoir prédictif plus élevé par rapport à d'autres modèles de sélection de variables largement utilisés tels que le Lasso adaptatif, le Lasso adaptatif bayésien, et par rapport aux algorithmes d'apprentissage automatique bien connus. Pris ensemble, cette approche et ses performances prometteuses dans divers scénarios de données mettent en évidence le fait que les outils de simulation et les techniques d'inférence bayésienne puissent être efficacement combinés pour traiter des problèmes bien connus qui ont longtemps pesé sur la littérature de la sélection de variables (en particulier en grande dimension).
|
142 |
Positivité des fonctions de corrélation en théorie conforme des champsGbeasor, Boris 13 December 2023 (has links)
Toute théorie des champs devient conforme aux points fixes du groupe de renormalisation de Wilson. Face aux échecs de la méthode perturbatrice pour certains modèles quantiques à fort couplage dans l'extrême infrarouge ou ultraviolet, les symétries et le développement en produits d'opérateurs de ces théories conformes deviennent des outils suffisamment puissants à la résolution analytique des fonctions de corrélation à des constantes près. Ces constantes, similaires à des mesures du couplage entre les opérateurs, peuvent être déterminées par différentes procédures comme le Bootstrap conforme numérique. Des contraintes unitaires peuvent aussi être appliquées sur ces constantes et indirectement sur la dimension d'échelle par l'usage de la condition de positivité de Wightman dans une signature lorentzienne. Cette condition retranscrit l'inégalité de la norme d'un état dans le domaine d'Hilbert des opérateurs étendus. Dans ce mémoire, la positivité de Wightman sera étudiée en théorie conforme, afin de poser des contraintes sur les fonctions de corrélation, et ainsi obtenir indirectement, des informations unitaires sur les paramètres qui les composent. / Every quantum field theory turn eventually into a conformal theory at the fixed points of the Wilson renormalization group. Given the failure of the perturbative approach for some quantum models with very large coupling at low or high energy, symmetries and the operator product expansion of these conformal theories turn out to be powerful tools to analytically solve correlation functions up to constants. These constants, similar to coupling strengths between operators, can be determined with different techniques such as the numerical conformal Bootstrap. Unitarity conditions can be applied on these constants and the scaling dimension using Wightman unitarity condition in a lorentzian signature. This condition express the inequality of the norm of state in the Hilbert space of smeared fields. In this master thesis, Wightman unitarity will be studied in conformal field theory, in order to constrain correlation functions and obtain unitarity informations on their parameters.
|
143 |
Définition et évaluation d'approches pour la validation des graphiques acycliques dirigés à partir de donnéesGadio, Souleymane 15 March 2024 (has links)
L’évaluation de relations causales à l’aide de données observationnelles est une pratique courante en épidémiologie. En présence de telles données, l’exposition d’intérêt est non randomisée et l’estimation des effets peut être biaisée par l’existence de variables confondantes. Les graphes acycliques dirigés (DAG) permettent de représenter les relations causales présumées entre les variables jugées pertinentes, ainsi que d’identifier les variables réellement confondantes, mais tracer un DAG peut être un défi majeur. Dans ce mémoire, nous avons étudié, développé et comparé différentes méthodes de validation des DAG. Un DAG est dit compatible avec les données si les indépendances statistiques sous-tendues par le DAG sont présentes dans les données. Nous avons considéré quatre méthodes statistiques paramétriques et deux non-paramétriques afin de tester l’ensemble de ces indépendances. À partir de données synthétiques simulées, nous avons évalué la capacité de ces tests à distinguer les DAG valides de ceux non valides. Plusieurs simulations variant en fonction de la taille d’échantillon, du nombre et du type de variables, ainsi que de la forme de leurs relations ont été réalisées. Par ailleurs, nous avons illustré l’application de nos tests pour valider un DAG concernant l’impact des nouveaux retards vaccinaux aux visites de vaccination sur le statut vaccinal. La performance des tests varie d’un scénario à l’autre. La majorité des tests rejettent plus souvent la validité des DAG pourtant valides dans certains scénarios que l’erreur de type I prévue de 5% à l’exception du test d’équations structurelles WLSMV (mean and variance adjusted weighted least squares) qui donne des résultats assez satisfaisant, notamment en absence de relations quadratiques dans la structure des données. Ce dernier test a toutefois une puissance relativement faible à détecter les DAG non valides dans certains cas. Par ailleurs, nos résultats illustrent que certains DAG non valides sont impossibles à discerner d’un DAG valide à partir des données observées. Les tests que nous avons explorés peuvent aider à discerner certains problèmes dans les DAG. Malgré leurs limites, ces tests sont des outils avec un potentiel important pour aider les épidémiologistes à valider leurs hypothèses lorsqu’ils utilisent des DAG. / Assessing causal relationships using observational data is common practice in epidemiology. In the presence of such data, the exposure of interest is non-randomized and the estimation of the effects may be biased by the existence of confounding variables. Directed acyclic graphs (DAGs) allow depicting the presumed causal relationships between variables deemed relevant, as well as identify truly confounding variables, but building a DAG can be a major challenge. In this thesis, we have developed and compared different DAG validation methods. A DAG is said to be compatible with the data if the statistical independencies underlying the DAG are present in the data. We consider three parametric and two nonparametric statistical methods in order to test all of these independencies. Using simulated synthetic data, we evaluate the ability of these tests to distinguish valid DAGs from those that are not valid. Several simulations varying according to the sample size, the number and type of variables, as well as the form of their relationships were performed. In addition, we illustrate the application of our tests to validate a DAG concerning the impact of new vaccine delays on vaccination visits at vaccination status. Tests’ performance vary from scenario to scenario. The majority of tests reject more often the validity of DAG yet valid in some scenarios than the type I error of 5% expected with the exception of the structural equation WLSMV (mean and variance adjusted weighted least squares) which gives fairly satisfactory results, especially in the absence of quadratic relationships in the data structure. However, this last test has a relatively low power to detect invalid DAGs in certain cases. Our results also illustrate that some invalid DAGs are impossible to discern from a valid DAG based on the observed data. The tests we have explored can help detect certain problems in DAGs. Despite their limitations, these tests are therefore tools with significant potential to help epidemiologists to validate their hypotheses when using DAGs.
|
144 |
Sur l'estimation d'un vecteur moyen sous symétrie sphérique et sous contrainteKortbi, Othmane January 2011 (has links)
Ce travail est essentiellement centré sur l'estimation, du point de vue de la théorie de la décision, de la moyenne d'une distribution multidimensionnelle à symétrie sphérique. Sous coût quadratique, nous nous sommes concentrés à développer des classes d'estimateurs au moins aussi bons que les estimateurs usuels, puisque ces derniers tendent à perdre leur performance en dimension élevée et en présence de contraintes sur les paramètres. Dans un premier temps, nous avons considéré les distributions de mélange (par rapport à [sigma][indice supérieur 2]) de lois normales multidimensionnelles N ([théta], [sigma][indice supérieur 2]I[indice inférieur p]), en dimension p supérieure ou égale à 3. Nous avons trouvé une grande classe de lois a priori (généralisées), aussi dans la classe des distributions de mélange de lois normales, qui génèrent des estimateurs de Bayes minimax. Ensuite, pour étendre nos résultats, nous avons considéré les distributions à symétrie sphérique (pas nécessairement mélange de lois normales) avec paramètre d'échelle connu, en dimension supérieure ou égale à 3 et en présence d'un vecteur résiduel. Nous avons obtenu une classe d'estimateurs de Bayes généralisés minimax pour une grande classe de distributions sphériques incluant certaines distributions mélange de lois normales. Dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], I[indice inférieur p]) sous la contrainte [double barre verticale][théta][double barre verticale] [inférieur ou égal] m avec m > 0, une analyse en dimension finie pour comparer les estimateurs linéaires tronqués [delta][indice inférieur a] (0 [plus petit ou égal] a < 1) avec l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] est donnée. Un cadre asymptotique est développé, ceci nous permet de déduire la sous-classe des estimateurs [delta][indice inférieur a] qui dominent [delta][indice inférieur emv] et de mesurer avec précision le degré d'amélioration relative en risque. Enfin, dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], [sigma][indice supérieur 2]I[indice inférieur p]) où [sigma] est inconnu et sous la contrainte [Special characters omitted.] [plus petit ou égal] m avec m > 0, des résultats de dominance de l'estimateur X et de l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] sont développés. En particulier, nous avons montré que le meilleur estimateur équivariant [delta][indice inférieur m] (x , s) = h[indice inférieur m] ([Special characters omitted.]) x pour = [Special characters omitted.] = m domine [delta][indice inférieur emv] lorsque m [plus petit ou égal] [racine carrée]p et que sa troncature [delta][Special characters omitted.] domine [delta][indice inférieur emv] pour tout (m , p).
|
145 |
L'échantillonnage de Gibbs pour l'estimation bayésienne dans l'analyse de survieKhribi, Lotfi January 2007 (has links) (PDF)
Dans ce mémoire, nous étudions l'approche bayésienne dans l'estimation des durées de vie pour des problèmes avec des points de rupture et avec des données censurées. Dans le chapitre 1, nous présentons les deux approches statistiques, l'approche fréquentiste et l'approche bayésienne. Nous montrons les points de ressemblance et de différence entre ces deux approches. Aussi, nous présentons le modèle bayésien hiérarchique avec les méthodes d'estimation Monte-Carlo avec un bref aperçu des méthodes de simulation par chaînes de Markov (MCMC). nous nous intéressons en particulier aux deux algorithmes qui sont utiles pour ces méthodes: il s'agit de l'algorithme Metropolis-Hastings et la méthode d'échantillonnage de Gibbs. Cette dernière a été utilisée par Geman et Geman (84) pour générer des observations à partir d'une distribution de Gibbs (distribution de Boltzmann). Il s'agit d'une forme particulière de méthode de Monte-Carlo par chaîne de Markov qui, du fait de son efficacité, est largement utilisée dans de nombreux domaines d'analyse statistique bayésienne. Nous parlons aussi dans ce chapitre du logiciel BUGS(Bayesian Inference Using Gibbs Sampling). Ce logiciel de programmation a été développé à l'unité MRC de Biostatistique de Cambridge. Il vise à tirer avantage des probabilités de l'échantillonnage de Gibbs dans l'inférence bayésienne sur des systèmes complexes. Dans le chapitre 2, nous abordons quelques concepts nécessaires à l'étude de l'analyse de survie, tels les fonctions de survie et de risque, les différents types de données censurées. Nous parlons aussi des méthodes fréquentistes d'analyse de survie, notamment la méthode de Kaplan-Meier. Nous rappellons aussi comment est déterminée la fonction de vraisemblance d'un modèle bayésien paramétrique de durée avec censure. Le chapitre 3 présente deux méthodes bayésiennes qui seront analysées et implémentées dans le logiciel BUGS. Une méthode qui est semi paramétrique, il s'agit de la méthode de Kalbfteisch. L'autre méthode paramétrique est celle de Carlin, Gelfand et Smith. Nous vérifions, grâce à des simulations, l'efficacité de ces deux méthodes bayésiennes. Deux exemples de simulations seront
traités, un avec données censurées et l'autre avec points de rupture. Nous démontrons principalement que les estimations par simulation et l'inférence bayésienne paramétrique donnent de bons résultats par rapport aux méthodes classiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fonction de survie, Méthodes paramétrique et semi paramétrique bayésiennes, Méthodes de Monte Carlo par chaîne de Markov, Échantillonnage de Gibbs.
|
146 |
Théorèmes limites pour des processus à longue mémoire saisonnièreOuld Mohamed Abdel Haye, Mohamedou Viano, Marie-Claude January 2001 (has links)
Thèse de doctorat : Mathématiques : Lille 1 : 2001. / N° d'ordre (Lille) : 3085. Résumé en français et en anglais. Bibliogr. p. 115-119.
|
147 |
Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /Younes, Hassan, January 2005 (has links)
Thèse (D. en mathématiques)--Université du Québec à Montréal, 2005. / En tête du titre: Université du Québec à Montréal. Bibliogr.: f. [102]-107. Publié aussi en version électronique.
|
148 |
Investigating high-dimensional problems in actuarial science, dependence modelling, and quantitative risk managementBlier-Wong, Christopher 27 November 2023 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Les compagnies d'assurance jouent un rôle essentiel dans la société en assurant la protection financière, la gestion des risques, la stabilité sociale et la promotion de la croissance économique. Dans ce contexte, les actuaires utilisent leur expertise en mathématiques, en statistiques et en théorie financière pour aider les particuliers, les entreprises et les organisations à prendre des décisions éclairées en matière de gestion des risques et de protection contre les pertes financières, contribuant ainsi à la stabilité et à la prospérité globales de la société. La plupart des théories de la science actuarielle commencent par la simplification d'hypothèses afin d'obtenir des expressions simples : au premier plan, l'hypothèse selon laquelle les risques du portefeuille d'une compagnie d'assurance sont indépendants et identiquement distribués. Si cette hypothèse se vérifie, on peut souvent appliquer la loi des grands nombres pour obtenir des résultats mathématiques pratiques liés à la gestion et à la tarification des risques dans le portefeuille. Cependant, la levée de cette hypothèse complique généralement ce résultat, et nous examinerons certaines de ces complications dans cette thèse. L'objectif principal de cette thèse est d'étudier les problèmes de haute dimension dans la science actuarielle, dans la modélisation de la dépendance et dans la gestion quantitative des risques. La thèse est divisée en trois parties, couvrant trois sujets sous le thème général de la science actuarielle à haute dimension. Dans la première partie, nous proposons des méthodes pour incorporer des données à haute dimension dans les modèles de tarification. Une hypothèse implicite d'un modèle de tarification actuariel est celle de l'équité actuarielle, le principe selon lequel les primes d'assurance doivent être basées sur des données statistiques et des facteurs de risque liés aux coûts totaux associés à un contrat d'assurance. En d'autres termes, l'équité actuarielle signifie que les personnes les plus susceptibles de faire une réclamation doivent payer des primes plus élevées que celles qui sont moins susceptibles de le faire. Les actuaires utilisent des modèles mathématiques et des analyses statistiques pour étudier le risque associé à différents événements, tels que les maladies, les accidents et les catastrophes naturelles. Ils utilisent ensuite ces données pour déterminer des primes qui reflètent le risque associé à chaque assuré. Une stratégie essentielle pour les assureurs consiste à écumer la crème, c'est-à-dire à choisir sélectivement d'assurer les clients présentant un faible risque de sinistre, tout en excluant ceux qui présentent un risque plus élevé ou en leur appliquant des primes plus élevées. La mise en œuvre réussie de cette stratégie nécessite un avantage concurrentiel utilisant plus de données, plus de caractéristiques ou en développant des modèles plus performants. Même si un assureur ne souhaite pas utiliser cette stratégie, il est essentiel de disposer d'un excellent modèle prédictif (aussi bon que celui du concurrent). L'introduction traite de l'intégration des données massives dans le modèle de tarification d'un assureur. Nous fournissons ensuite des implémentations spécifiques utilisant des informations de recensement externes pour la modélisation spatiale et des images de rues externes pour identifier les facteurs de risque des maisons. La deuxième partie de cette thèse comprend deux contributions à la théorie des copules. Elle est consacrée à l'obtention de nouveaux résultats sur la famille des copules de Farlie-Gumbel-Morgenstern (FGM). Cette famille de copules est très flexible puisque sa version à d-variables contient 2ᵈ − d − 1 paramètres. Cependant, une paramétrisation en haute dimension est considérée comme un inconvénient car il y a trop de paramètres à spécifier, qui sont difficiles à interpréter, et les paramètres doivent satisfaire un ensemble de contraintes fastidieuses. Construire des familles de copules FGM de haute dimension pour des applications pratiques est un défi. Notre contribution dans cette partie de la thèse est de proposer une représentation stochastique des copules FGM basée sur des distributions de Bernoulli symétriques multivariées. Nous montrons également que cette correspondance est bijective. Cette représentation, dans la plupart des cas, permet de dériver de nouvelles propriétés des copules FGM basées sur l'abondante littérature sur les distributions de Bernoulli symétriques multivariées. Nous obtenons des résultats supplémentaires utiles lorsque nous utilisons l'hypothèse additionnelle selon laquelle les composantes du vecteur aléatoire sont échangeables. Dans la troisième partie de cette thèse, nous apportons deux contributions à l'agrégation des risques, à l'allocation du capital et au partage des risques. Premièrement, nous utilisons les résultats obtenus dans la deuxième partie de la thèse pour étudier l'agrégation des risques lorsque la structure de dépendance entre les risques est une copule FGM. Nous dérivons des expressions pour les moments et la transformée de Laplace-Stieltjes de la variable aléatoire agrégée basée sur la représentation stochastique des copules FGM. Nous concevons un algorithme pour calculer la fonction de masse de probabilité du vecteur aléatoire agrégé lorsque les risques sont définis par des variables aléatoires discrètes. Lorsque les risques sont définis par des variables aléatoires continues obéissant à une distribution mélange d'Erlang, nous démontrons que la variable aléatoire agrégée est également distribuée selon une distribution mélange d'Erlang et nous développons des expressions pour les mesures de risque et les contributions au risque ex-post pour le partage des risques avec la règle de partage des risques à espérance conditionnelle. La deuxième contribution de cette partie établit un lien entre les espérances conditionnelles et les dérivés des fonctions génératrices de probabilités conjointes. Cette relation conduit à de nouvelles stratégies pour calculer les espérances conditionnelles ex-ante ou ex-post lorsque les risques sont représentés par des variables aléatoires discrètes. Nous dérivons de nouvelles expressions pour les espérances conditionnelles et développons une stratégie de calcul efficace basée sur les transformées de Fourier rapides pour calculer les espérances conditionnelles. / Insurance companies play a critical role in society by providing financial protection, risk management, social stability and promoting economic growth. Within this context, actuaries use their expertise in mathematics, statistics, and financial theory to help individuals, businesses, and organizations make informed decisions about managing risks and protecting against financial loss, contributing to society's overall stability and prosperity. Most of the theory in actuarial science starts with simplifying assumptions to obtain convenient expressions: at the forefront is that the risks in an insurance company's portfolio are independent and identically distributed. If the assumption holds, one may often apply the central limit theorem to obtain convenient mathematical results related to risk management and pricing of risks in the portfolio. However, removing this assumption typically complicates this result, and we will investigate some of these challenges in this thesis. The main objective of this thesis is to investigate high-dimensional problems in insurance mathematics, dependence modelling and quantitative risk management. The thesis is divided into three parts, covering three subjects under the general theme of high-dimensional actuarial science. In the first part, we propose methods to incorporate high-dimensional data within ratemaking models. An implicit assumption of the actuarial model is that of actuarial fairness, the principle that insurance premiums should be based on statistical data and risk factors related to the total costs associated with an insurance contract. In other words, actuarial fairness means that individuals more likely to make a claim should pay higher premiums than those less likely to do so. Actuaries use mathematical models and statistical analysis to calculate the risk associated with different events, such as illness, accidents, and natural disasters. They then use this data to set premiums that reflect the risk associated with other policyholders. A critical strategy for insurers is "skimming the creme," referring to insurance companies selectively choosing to insure customers at lower risk of making a claim while excluding or charging higher premiums to those at higher risk. This strategy's successful implementation requires a competitive advantage in terms of more data, more features or better models. Even if an insurer does not want to use this strategy, having an excellent predictive model (as good as the competitor's) is still essential. The introduction discusses incorporating big data into an insurer's ratemaking model. We then provide specific implementations using external census information for spatial modelling and external street view imagery to identify risk factors of houses. The second part of this thesis includes two contributions to copula theory. It is dedicated to obtaining new results on the family of Farlie-Gumbel-Morgenstern (FGM) copulas. This family of copulas is very flexible since its d-variate version contains 2ᵈ - d - 1 parameters. However, this high dimensionality in the parameters is considered a drawback since there are too many parameters to specify, which are difficult to interpret, and the parameters must satisfy a set of tedious constraints. Constructing high-dimensional families of FGM copulas for practical applications is challenging. Our contribution in this part of the thesis is to propose a stochastic representation of FGM copulas based on symmetric multivariate Bernoulli distributions. We further show that this correspondence is one-to-one. This representation, in most cases, lets one derive new properties of FGM copulas based on the expansive literature on multivariate symmetric Bernoulli distributions. We derive useful supplemental results when we use the additional assumption that the components of the random vector are exchangeable. In the third part of this thesis, we provide two contributions to risk aggregation, capital allocation and risk-sharing. First, we use the results derived in the second part of the thesis to study risk aggregation when the dependence structure between the risks is a FGM copula. We derive expressions for the moments and the Laplace-Stieltjes transform of the aggregate random variable based on the stochastic representation of FGM copulas. We design an algorithm to compute the probability mass function of the aggregate random vector when the risks are discrete. When risks are mixed Erlang distributed, we find that the aggregate random variable is also mixed Erlang distributed and develop expressions for risk measures and ex-post risk contributions for risk-sharing with the conditional mean risk-sharing rule in that case. For our second contribution of this part, we provide a link between conditional expectations and derivatives of joint probability-generating functions. This relationship leads to new strategies to compute conditional means ex-ante or ex-post when risks are discrete. We derive new expressions for the conditional means and develop an efficient computational strategy based on fast Fourier transforms to compute the conditional means.
|
149 |
Sommes et extrêmes en physique statistique et traitement du signal : ruptures de convergences, effets de taille finie et représentation matricielleAngeletti, Florian 06 December 2012 (has links) (PDF)
Cette thèse s'est développée à l'interface entre physique statistique et traitement statistique du signal, afin d'allier les perspectives de ces deux disciplines sur les problèmes de sommes et maxima de variables aléatoires. Nous avons exploré trois axes d'études qui mènent à s'éloigner des conditions classiques (i.i.d.) : l'importance des événements rares, le couplage avec la taille du système, et la corrélation. Combinés, ces trois axes mènent à des situations dans lesquelles les théorèmes de convergence classiques sont mis en défaut.Pour mieux comprendre l'effet du couplage avec la taille du système, nous avons étudié le comportement de la somme et du maximum de variables aléatoires indépendantes élevées à une puissance dépendante de la taille du signal. Dans le cas du maximum, nous avons mis en évidence l'apparition de lois limites non standards. Dans le cas de la somme, nous nous sommes intéressés au lien entre effet de linéarisation et transition vitreuse en physique statistique. Grâce à ce lien, nous avons pu définir une notion d'ordre critique des moments, montrant que, pour un processus multifractal, celui-ci ne dépend pas de la résolution du signal. Parallèlement, nous avons construit et étudié, théoriquement et numériquement, les performances d'un estimateur de cet ordre critique pour une classe de variables aléatoires indépendantes.Pour mieux cerner l'effet de la corrélation sur le maximum et la somme de variables aléatoires, nous nous sommes inspirés de la physique statistique pour construire une classe de variable aléatoires dont la probabilité jointe peut s'écrire comme un produit de matrices. Après une étude détaillée de ses propriétés statistiques, qui a montré la présence potentielle de corrélation à longue portée, nous avons proposé pour ces variables une méthode de synthèse en réussissant à reformuler le problème en termes de modèles à chaîne de Markov cachée. Enfin, nous concluons sur une analyse en profondeur du comportement limite de leur somme et de leur maximum.
|
150 |
Les relations spatiales et temporelles entre les communautés d'oiseaux et les paysages agricoles / Spatial and temporal relationships between bird communities and agricultural landscapesBonthoux, Sébastien 15 November 2011 (has links)
Cette thèse concerne l’évaluation des impacts des changements d’utilisations des sols sur la biodiversité des paysages agricoles à partir du modèle oiseaux. L’intensification de l’agriculture a engendré une diminution des habitats semi-naturels et de l’hétérogénéité des paysages avec de profondes conséquences sur la structure et la dynamique des communautés animales et végétales. Etablir des politiques environnementales efficaces nécessite de comprendre finement les processus écologiques mis en jeu par ces changements. Dans mes travaux, j’ai utilisé deux stratégies : l’étude des relations synchroniques et diachroniques entre les communautés d’oiseaux et les paysages. L’approche synchronique m’a permis de vérifier la généricité spatiale des relations oiseaux-habitat. J’ai pu mettre en évidence que la distribution de l’alouette des champs et que la richesse spécifique en oiseaux sont expliquées par les mêmes facteurs paysagers dans trois régions géographiques de France (Gascogne, Poitou, Bretagne). Ces résultats suggèrent que, dans certains cas, les mêmes programmes de gestion peuvent être utilisés sur une large étendue géographique, sans qu’il soit nécessaire de les adapter localement. Dans un second temps, sur le site de recherche des Vallées et Coteaux de Gascogne j’ai comparé les communautés d’oiseaux dans cinq systèmes agricoles aux intensités de production contrastées. J’ai montré que la structure et la composition des communautés sont très similaires dans les cinq systèmes. Ce résultat inattendu est probablement dû au maintien sur ce site d’étude, pour des raisons culturelles, d’un paysage hétérogène qui tamponne les effets de l’intensification agricole. L’approche diachronique m’a permis de quantifier l’impact de la dynamique des paysages à long terme sur les communautés d’oiseaux sur le site Vallées et Coteaux de Gascogne qui, entre 1982 et 2007, a connu une légère diminution de l’hétérogénéité des paysages et une forte augmentation des cultures aux dépens des prairies. J’ai trouvé des relations significatives entre les changements des communautés et des paysages. Ces relations temporelles étant moins fortes que les relations synchroniques aux deux dates, cela suggère d’être prudent dans l’utilisation du « space for time substitution ». Dans le but de construire des outils fiables pour prédire les patrons de distribution d’espèces, j’ai évalué et comparé les performances prédictives de deux approches de modélisation : niveau espèce versus niveau communauté. Je montre que ces deux approches ont une fiabilité similaire et une capacité de prédiction correcte. Ces types de modèles pourraient être couplés à des scénarios d’évolution des paysages pour simuler la réponse de la biodiversité à ces scénarios. / This thesis concerns the assessment of the impacts of land use changes in agricultural landscapes on biodiversity based on bird communities. The intensification of agriculture has resulted in a decrease of semi-natural habitats and the diversity of landscapes with profound consequences on the structure and the dynamics of plant and animal communities. Establish effective environmental policies requires an understanding of ecological processes responsible for these changes. In my work, I used two strategies: the study of synchronic and diachronic relations between bird communities and landscape structure. The synchronic approach allowed me to check the spatial genericity of relationships between birds and their habitats. I demonstrated that the same landscape factors explain the distribution of the skylark and the species richness in three geographic regions of France (Gascogny, Poitou, Britain). These results suggest that in some cases the same management programs can be used over a wide geographical area, without the need to adapt locally. In a second step, in the site « Vallées et Coteaux de Gascogne » I compared bird communities in five agricultural systems with contrasting intensities of production. I showed that the structure and composition of communities are very similar in all five systems. This unexpected result is probably due to the maintenance on this study site, for cultural reasons, of a heterogeneous landscape that buffers the effects of agricultural intensification. The diachronic approach allowed me to quantify the impact of long term landscape dynamics on bird communities in the site « Vallées et Coteaux de Gascogne ». Between 1982 and 2007, it occured a slight decrease in the heterogeneity of landscapes and a strong increase of crops at the expense of grasslands. I found significant relationships between landscape dynamics and changes in bird communities. However, these temporal relations are weaker than synchronic relations on both dates. These results suggest to be cautious in the use of the "space for time substitution" approach. In order to build reliable tools to predict species distribution patterns, I have evaluated and compared the predictive performance of two approaches modeling: species level versus community level. I showed that both approaches have a similar reliability to predcit species distributions. These types of models could be coupled with scenarios of landscape changes to simulate the response of biodiversity to these scenarios.
|
Page generated in 0.0527 seconds