• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 9
  • 5
  • Tagged with
  • 76
  • 29
  • 13
  • 12
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

L'influence du modèle français de contrôle de la légalité des actes administratifs : le cas de l'Iran

Hosseini Sadrabadi, Iraj 30 March 2013 (has links)
S'inspirant du modèle français, le législateur iranien a créé en 1960 une nouvelle institution : le Conseil d'État iranien. Mais la loi n'a jamais été appliquée. La Cour de Justice Administrative (CJA) actuelle a été créé par l'article 173 de la Constitution de 1979, pour exercer le contrôle judiciaire sur les organismes et les agents de l'autorité publique, sous l'autorité du pouvoir judiciaire. La CJA est compétente pour les recours en excès de pouvoir contre les actes administratifs et contre les fonctionnaires publics. Le contentieux de la légalité des actes administratifs en droit iranien distingue les recours objectifs envisagés à l'article 19 de la loi de 2006 relative à la CJA et les recours subjectifs prévus à l'article 13 de cette loi. L'Assemblée générale de la CJA est compétente pour les recours objectifs et les Chambre de cette Cour pour les recours subjectifs. Ce qui caractérise la CJA, c'est qu'elle soit principalement le juge de première et de dernière instance. En matière de décisions définitives des juridictions spécialisées, elle agit en tant que juge de cassation. Elle est le juge du droit commun des litiges administratifs car dans le système iranien, il n'existe ni des tribunaux administratifs ni des cours administratives d'appel. / Inspired by the French model, the Iranian legislator created in 1960 a new institution: The Council of State of Iran. But the law has never been implemented. The Court of Administrative Justice (CAJ) of that time was created by the section 173 of the 1979 Constitution to exercise judicial control over agencies and the agents of public authority under the authority of the judiciary. The CAJ is responsible for the excessive use of power against administrative acts and against agents' administration. The dispute on the legality of administrative acts in Iranian law distinguishes between the objective appeals envisaged in article 19 of the 2006 Act on the CAJ and the subjective appeals provided in article 13 of this law. The General Assembly of the CAJ is responsible for the objective appeals and The Chamber of this Court is responsible for the subjective appeals. What characterizes the CAJ is that it is primarily the judge of the first and the last instance. In terms of final decisions of the specialized courts, it acts as a court of cassation. It is the judge of the common administrative law cases as in the Iranian system; then there are no administrative courts or administrative courts of appeal.
32

Inférence statistique dans des modèles de comptage à inflation de zéro. Applications en économie de la santé / Statistical inference in zero-inflated counts models. Applications in economics of health

Diallo, Alpha Oumar 27 November 2017 (has links)
Les modèles de régressions à inflation de zéros constituent un outil très puissant pour l’analyse de données de comptage avec excès de zéros, émanant de divers domaines tels que l’épidémiologie, l’économie de la santé ou encore l’écologie. Cependant, l’étude théorique dans ces modèles attire encore peu d’attention. Ce manuscrit s’intéresse au problème de l’inférence dans des modèles de comptage à inflation de zéro.Dans un premier temps, nous revenons sur la question de l’estimateur du maximum de vraisemblance dans le modèle binomial à inflation de zéro. D’abord nous montrons l’existence de l’estimateur du maximum de vraisemblance des paramètres dans ce modèle. Ensuite, nous démontrons la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Puis, une étude de simulation exhaustive sur des tailles finies d’échantillons est menée pour évaluer la cohérence de nos résultats. Et pour finir, une application sur des données réelles d’économie de la santé a été conduite.Dans un deuxième temps, nous proposons un nouveau modèle statistique d’analyse de la consommation de soins médicaux. Ce modèle permet, entre autres, d’identifier les causes du non-recours aux soins médicaux. Nous avons étudié rigoureusement les propriétés mathématiques du modèle. Ensuite nous avons mené une étude numérique approfondie à l’aide de simulations informatiques et enfin, nous l’avons appliqué à l’analyse d’une base de données recensant la consommation de soins de plusieurs milliers de patients aux USA.Un dernier aspect de ces travaux de thèse a été de s’intéresser au problème de l’inférence dans le modèle binomial à inflation de zéro dans un contexte de données manquantes sur les covariables. Dans ce cas nous proposons la méthode de pondération par l’inverse des probabilités de sélection pour estimer les paramètres du modèle. Ensuite, nous établissons la consistance et la normalité asymptotique de l’estimateur proposé. Enfin, une étude de simulation sur plusieurs échantillons de tailles finies est conduite pour évaluer le comportement de l’estimateur. / The zero-inflated regression models are a very powerful tool for the analysis of counting data with excess zeros from various areas such as epidemiology, health economics or ecology. However, the theoretical study in these models attracts little attention. This manuscript is interested in the problem of inference in zero-inflated count models.At first, we return to the question of the maximum likelihood estimator in the zero-inflated binomial model. First we show the existence of the maximum likelihood estimator of the parameters in this model. Then, we demonstrate the consistency of this estimator, and let us establish its asymptotic normality. Then, a comprehensive simulation study finite sample sizes are conducted to evaluate the consistency of our results. Finally, an application on real health economics data has been conduct.In a second time, we propose a new statistical analysis model of the consumption of medical care. This model allows, among other things, to identify the causes of the non-use of medical care. We have studied rigorously the mathematical properties of the model. Then, we carried out an exhaustive numerical study using computer simulations and finally applied to the analysis of a database on health care several thousand patients in the USA.A final aspect of this work was to focus on the problem of inference in the zero inflation binomial model in the context of missing covariate data. In this case we propose the weighting method by the inverse of the selection probabilities to estimate the parameters of the model. Then, we establish the consistency and asymptotic normality of the estimator offers. Finally, a simulation study on several samples of finite sizes is conducted to evaluate the behavior of the estimator.
33

Splines multidimensionnelles pénalisées pour modéliser le taux de survenue d’un événement : application au taux de mortalité en excès et à la survie nette en épidémiologie des maladies chroniques / Multidimensional penalized splines for hazard modelling : application to excess mortality hazard and net survival in chronic disease epidemiology

Fauvernier, Mathieu 24 September 2019 (has links)
L’étude du temps de survenue d’un événement représente un champ très important des statistiques. Lorsque l’événement étudié est le décès, on cherche à décrire la survie des individus ainsi que leur taux de mortalité, c’est-à-dire la « force de mortalité » qui s’applique à un instant donné. Les patients atteints d’une maladie chronique présentent en général un excès de mortalité par rapport à une population ne présentant pas la maladie en question. En épidémiologie, l’étude du taux de mortalité en excès des patients, et notamment de l’impact des facteurs pronostiques sur celui-ci, représente donc un enjeu majeur de santé publique. D’un point de vue statistique, la modélisation du taux de mortalité (en excès) implique de prendre en compte les effets potentiellement non-linéaires et dépendants du temps des facteurs pronostiques ainsi que les interactions. Les splines de régression, polynômes par morceaux paramétriques et flexibles, sont des outils particulièrement bien adaptés pour modéliser des effets d’une telle complexité. Toutefois, la flexibilité des splines de régression comporte un risque de sur-ajustement. Pour éviter ce risque, les splines de régression pénalisées ont été proposées dans le cadre des modèles additifs généralisés. Leur principe est le suivant : à chaque spline peuvent être associés un ou plusieurs termes de pénalité contrôlés par des paramètres de lissage. Les paramètres de lissage représentent les degrés de pénalisation souhaités. En pratique, ils sont inconnus et doivent être estimés tout comme les paramètres de régression. Dans le cadre de cette thèse, nous avons développé une méthode permettant de modéliser le taux de mortalité (en excès) à l’aide de splines de régression multidimensionnelles pénalisées. Des splines cubiques restreintes ont été utilisées comme splines unidimensionnelles ou bien comme bases marginales afin de former des splines multidimensionnelles par produits tensoriels. Le processus d’optimisation s’appuie sur deux algorithmes de Newton-Raphson emboîtés. L’estimation des paramètres de lissage est effectuée en optimisant un critère de validation croisée ou bien la vraisemblance marginale des paramètres de lissage par un algorithme de Newton-Raphson dit externe. A paramètres de lissage fixés, les paramètres de régression sont estimés par maximisation de la vraisemblance pénalisée par un algorithme de Newton-Raphson dit interne.Les bonnes propriétés de cette approche en termes de performances statistiques et de stabilité numérique ont ensuite été démontrées par simulation. La méthode a ensuite été implémentée au sein du package R survPen. Enfin, la méthode a été appliquée sur des données réelles afin de répondre aux deux questions épidémiologiques suivantes : l’impact de la défavorisation sociale sur la mortalité en excès des patients atteints d’un cancer du col de l’utérus et l’impact de l’âge courant sur la mortalité en excès des patients atteints de sclérose en plaques / Time-to-event analysis is a very important field in statistics. When the event under study is death, the analysis focuses on the probability of survival of the subjects as well as on their mortality hazard, that is, on the "force of mortality" that applies at any given moment. Patients with a chronic disease usually have an excess mortality compared to a population that does not have the disease. Studying the excess mortality hazard associated with a disease and investigating the impact of prognostic factors on this hazard are important public health issues in epidemiology. From a statistical point of view, modelling the (excess) mortality hazard involves taking into account potentially non-linear and time-dependent effects of prognostic factors as well as their interactions. Regression splines (i.e., parametric and flexible piecewise polynomials) are ideal for dealing with such a complexity. They make it possible to build easily nonlinear effects and, regarding interactions between continuous variables, make it easy to form a multidimensional spline from two or more marginal one-dimensional splines. However, the flexibility of regression splines presents a risk of overfitting. To avoid this risk, penalized regression splines have been proposed as part of generalized additive models. Their principle is to associate each spline with one or more penalty terms controlled by smoothing parameters. The smoothing parameters represent the desired degrees of penalization. In practice, these parameters are unknown and have to be estimated just like the regression parameters. This thesis describes the development of a method to model the (excess) hazard using multidimensional penalized regression splines. Restricted cubic splines were used as one-dimensional splines or marginal bases to form multidimensional splines by tensor products. The optimization process relies on two nested Newton-Raphson algorithms. Smoothing parameter estimation is performed by optimizing a cross-validation criterion or the marginal likelihood of the smoothing parameters with an outer Newton-Raphson algorithm. At fixed smoothing parameters, the regression parameters are estimated by maximizing the penalized likelihood by an inner Newton-Raphson algorithm.The good properties of this approach in terms of statistical performance and numerical stability were then demonstrated through simulation. The described method was then implemented within the R package survPen. Finally, the method was applied to real data to investigate two epidemiological issues: the impact of social deprivation on the excess mortality in cervical cancer patients and the impact of the current age on the excess mortality in multiple sclerosis patients
34

Éthique et poétique de l’évolution dans l’oeuvre de Philippe Jaccottet / Ethics and poetics of evolution in the works of Philippe Jaccottet

Gmar, Imen 05 December 2014 (has links)
L’éthique et poétique de l’évolution qui est au centre de cette recherche, s’impose comme une loi native du processus de la création artistique. Elle est en effet, une « origine obligée » pour les justes survie et évolution de la voix poétique. Cette loi se fonde sur le « Rien » (qui est le savoir initiatique commun de la certitude de l’ignorance et de la vérité de la limite et de l’illimité que l’homme doit nécessairement attester dans l’instant central de l’évolution de l’esprit, afin de maintenir la survie et l’évolution de sa quête du savoir. Philippe Jaccottet définit d’emblée ce Rien comme étant le point de départ imposé de sa voix poétique dans son expérience du savoir et de la connaissance qui se mène aussi nécessairement par l’outil de recherche natif du doute et de l’incertitude : « L’incertitude est le moteur » La constante restitution du Rien se définit donc ainsi comme une nécessité vitale aux justes survie et évolution de l’oeuvre et comme une éthique de l’activité poétique et de recherche : « c’était pourtant comme la lampe sur la table avec le pain »L’expérience du savoir, en tant qu’activité vitale, détermine donc d’emblée le juste statut de -témoin de ce savoir- du poète et de l’homme. Le processus ou procès de la recherche se définissent donc ainsi en essence comme une affaire de justesse de témoignage et de justice à rendre au savoir. En effet, le lecteur en quête du savoir se retrouve face à différents témoignages véridiques et mensongers de ce savoir et face à la nécessaire activité d’épuration du paysage artistique de tout ce qui est nuisible à ses justes survie et évolution : « La difficulté n’est pas d’écrire, mais de vivre de telle manière que l’écrit naisse naturellement […] Poésie comme épanouissement, floraison, ou rien. Tout l’art du monde ne saurait dissimuler ce rien » Afin d’être un lecteur averti, le « Laveur de vaisselle » doit constamment faire sa propre expérience du savoir, ce qui est pour son esprit l’unique garant de sa juste survie et évolution et de son existence: « Je marche faute de lieu, je parle faute de savoir, preuve que je ne suis pas encore mort […] Toute poésie est la voix donnée à la mort » / [néant]
35

Extention de l'analyse de la survie nette au domaine de la recherche clinique / Transferring net survival methods in the field of clinical research

Goungounga, Juste Aristide 03 December 2018 (has links)
La survie nette est un indicateur incontournable pour juger du control du cancer. Par définition, elle correspond à la survie que l’on observerait dans un monde hypothétique où le cancer étudié serait la seule cause possible de décès. L’objectif principal de cette thèse était de montrer l’intérêt de cet indicateur dans le cadre de la recherche clinique en prenant en compte quelques défis méthodologiques qui peuvent être rencontrés dans ce contexte. Nous avons présenté d’abord le concept de survie nette et ses méthodes d’estimation. Par la suite nous nous sommes intéressés à quelques problématiques rencontrées dans les essais cliniques à long terme lorsque l’on s’intéresse à l’estimation de la survie nette. Nous avons étudié également l’impact de l’utilisation de l’approche classique d’estimation de la survie nette dans les essais cliniques, i.e. la méthode cause-spécifique dans différentes configurations d’erreurs de classifications de la cause de décès. La deuxième problématique de cette thèse a porté sur la prise en compte du biais de sélection en termes de mortalité autres causes des patients. Nous avons proposé un modèle de mortalité en excès prenant en compte ce type de biais de sélection. Une troisième problématique qui est complémentaire à la deuxième est de prendre en compte inter-centres en même temps que le biais de sélection. Ce travail propose ainsi de nouveaux outils pouvant aider les spécialistes de la recherche clinique à évaluer de nouvelles stratégies thérapeutiques dans les essais cliniques en cancérologie, mais aussi dans d’autres domaines cliniques d’applications. / Net survival is a key indicator for measuring cancer control. By definition, it corresponds to the survival that would be observed in a hypothetical world where the cancer studied is the only possible cause of death. The main objective of this thesis was to show the interest of this indicator in the context of clinical research taking into account some methodological challenges that can be encountered. In this work, we have first presented the concept of net survival and its estimation methods. Subsequently, we were interested in some of the problems encountered in long-term clinical trials when the interest is in estimating net survival. We studied the impact of using the classic approach when estimating net survival in clinical trials, i.e. the cause-specific method in different configurations of misclassifications of the cause of death. The second objective of this thesis was to take into account the selection bias in terms of other causes mortality in the modeling of excess mortality, because of the noncomparability between patients from general population and those of clinical trials. We proposed an excess hazard model that corrects this type of selection bias. A third problem which is complementary to the second is to take into account the heterogeneity of patients in the different recruitment centers at the same time as the selection bias. This work proposes new tools which can help clinical research specialists to evaluate new therapeutic strategies in cancer clinical trials, but also in other areas of clinical application.
36

Modélisation des évènements rares et estimation des quantiles extrêmes, méthodes de sélection de modèles pour les queues de distribution

Garrido, Myriam 12 June 2002 (has links) (PDF)
Cette thèse étudie la modélisation d'événements rares et l'estimation de quantiles extrêmes, à travers différents types de modèles et le choix de ces modèles. La théorie des valeurs extrêmes, et en particulier la méthode des excès (POT, Peaks Over Threshold), permettent une estimation non paramétrique, mais biaisée, des queues de distribution. Nous souhaitons donc utiliser des modèles paramétriques classiques. Cependant, ces modèles étant estimés et sélectionnés par des tests usuels à partir de l'échantillon complet, les résultats sont surtout influencés par les valeurs les plus probables de la variable. Nous proposons deux tests d'adéquation pour la queue de distribution, le test ET (Exponential Tail) et le test GPD (Generalised Pareto Distribution), pour sélectionner, par comparaison avec la méthode POT, les modèles produisant de bonnes estimations de la queue de distribution. Lorsqu'on souhaite reconstituer la loi dont sont issues les observations aussi bien dans la région centrale que dans la région extrême, on applique d'abord à un ensemble de modèles un test usuel (d'adéquation aux valeurs les plus probables), puis un test d'adéquation de la queue de distribution. Si aucune loi n'est acceptée par les deux types de tests, nous proposons une procédure de régularisation bayésienne qui, à partir d'un modèle adapté aux valeurs les plus probables, permet d'améliorer l'adéquation extrême grâce à un avis d'expert sur la queue de distribution. Enfin, si on revient à la méthode POT, il faut en réduire le biais d'estimation, notamment pour l'estimation des quantiles extrêmes. Cette méthode étant fondée sur l'approximation de la loi des excès au-delà d'un seuil par une loi GPD, nous cherchons à mieux en estimer les paramètres. L'inférence bayésienne sur les paramètres de la loi GPD permet de réduire le biais d'estimation des quantiles extrêmes par la méthode POT, en particulier quand on introduit un avis d'expert sur la queue de distribution.
37

Radio-détection des rayons cosmiques d'ultra-haute énergie. Analyse, simulation et interprétation.

Marin, Vincent 20 December 2011 (has links) (PDF)
Malgré l'utilisation de détecteurs géants adaptés aux faibles flux au-delà de 1018 eV, l'origine du rayonnement cosmique d'ultra-haute énergie reste pour l'instant mal établie. Dans les années 60, la détection radio des gerbes a été proposée comme une technique complémentaire à la détection de particules au sol ou à la détection par fluorescence. Un renouveau de cette méthode s'est opéré à partir des années 2000, avec notamment l'expérience CODALEMA. Les premiers résultats obtenus ont montré une forte dépendance du signal au champ géomagnétique et une forte corrélation entre l'énergie estimée par la radio et par les détecteurs de particules. La nouvelle génération de détecteurs radio créée par la collaboration CODALEMA permet aujourd'hui de démontrer qu'il est possible de détecter des gerbes de manière autonome. De part les performances attendues (cycle utile de presque 100%, signal provenant de l'ensemble de la gerbe, simplicité et faible coût du détecteur), il pourrait être envisagé de déployer cette technique pour les prochains grands réseaux de détection. Afin d'interpréter les données expérimentales, un outil de simulation radio, SELFAS, a été développé dans ce travail. Ce code de simulation a permis de mettre en évidence l'existence d'un second mécanisme d'émission radio. Une interprétation du profil longitudinal est aussi proposée comme observable d'un instant privilégié du développement de la gerbe, et pourrait donner une estimation de la nature du primaire.
38

L'excès de poids chez les enfants québécois

Dumitru, Valeriu 05 1900 (has links)
Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé. / Objectives: Analysis of trends of overweight among children in Quebec between 4 and 8 years and evaluation of the role of various risk factors of persistent excess weight. Data: based on the Québec Longitudinal Study of Child Development (QLSCD 1998-2010). This survey is being conducted by the Institut de la statistique du Québec with a cohort of 2120 children born in Québec in 1998, being followed annually from the age of 5 months. Methods of analysis: univariate, bivariate, semi-parametric modeling, logistic and loglinear (Poisson) regression analysis. Main results: i) The persistent excess weight in children aged 4 to 8 years is a fluctuating phenomenon, which does not vary significantly by sex; ii) The act of breastfeeding children does not seem to have a protective effect with regard to children being overweight; iii) Regarding the birth weight, the available data do not allow us to draw any conclusion; iv) Having a less than excellent health at birth appears to increase the risk of persistently being overweight; v) Primary influences are always eating too much or too fast, or living in a family with one or two parents who are overweight; vi) Mothers who smoked during pregnancy are more likely to have children who are overweight than those who did not smoke.
39

Elaboration d'un score de vieillissement : propositions théoriques

Sarazin, Marianne 21 May 2013 (has links) (PDF)
Le vieillissement fait actuellement l'objet de toutes les attentions, constituant en effet un problème de santé publique majeur. Sa description reste cependant complexe en raison des intrications à la fois individuelles et collectives de sa conceptualisation et d'une dimension subjective forte. Les professionnels de santé sont de plus en plus obligés d'intégrer cette donnée dans leur réflexion et de proposer des protocoles de prise en charge adaptés. Le vieillissement est une évolution inéluctable du corps dont la quantification est établie par l'âge dépendant du temps dit " chronologique ". Ce critère âge est cependant imparfait pour mesurer l'usure réelle du corps soumise à de nombreux facteurs modificateurs dépendant des individus. Aussi, partant de réflexions déjà engagées et consistant à substituer cet âge chronologique par un critère composite appelé " âge biologique ", aboutissant à la création d'un indicateur ou score de vieillissement et sensé davantage refléter le vieillissement individuel, une nouvelle méthodologie est proposée adaptée à la pratique de médecine générale. Une première phase de ce travail a consisté à sonder les médecins généralistes sur leur perception et leur utilisation des scores cliniques en pratique courante par l'intermédiaire d'une enquête qualitative et quantitative effectuée en France métropolitaine. Cette étude a montré que l'adéquation entre l'utilisation déclarée et la conception intellectualisée des scores restait dissociée. Les scores constituent un outil d'aide à la prise en charge utile pour cibler une approche systémique souvent complexe dans la mesure où ils sont simples à utiliser (peu d'items et items adaptés à la pratique) et à la validité scientifiquement comprise par le médecin. Par ailleurs, l'âge du patient a été cité comme un élément prépondérant influençant le choix adéquat du score par le médecin généraliste. Cette base de travail a donc servi à proposer une modélisation de l'âge biologique dont la réflexion a porté tant sur le choix du modèle mathématique que des variables constitutives de ce modèle. Une sélection de variables marqueurs du vieillissement a été effectuée à partir d'une revue de la littérature et tenant compte de leur possible intégration dans le processus de soin en médecine générale. Cette sélection a été consolidée par une approche mathématique selon un processus de sélection ascendant à partir d'un modèle régressif. Une population dite " témoin " au vieillissement considéré comme normal a été ensuite constituée servant de base comparative au calcul de l'âge biologique. Son choix a été influencé dans un premier temps par les données de la littérature puis secondairement selon un tri par classification utilisant la méthode des nuées dynamiques. Un modèle de régression linéaire simple a ensuite été construit mais avec de données normalisées selon la méthode des copules gaussiennes suivi d'une étude des queues de distribution marginales. Les résultats ainsi obtenus laissent entrevoir des perspectives intéressantes de réflexion pour approfondir le calcul d'un âge biologique et du score en découlant en médecine générale, sa validation par une étude de morbidité constituant l'étape ultime de ce travail
40

Régimes d'accrétion et variabilité dans les étoiles jeunes : apport de la photométrie UV / Accretion regimes and variability in young stars : imprints on UV photometry

Venuti, Laura 23 October 2015 (has links)
Le processus d'accrétion joue un rôle crucial dans le scénario de formation stellaire. Il régit l'interaction des étoiles jeunes avec leurs disques, en régulant l'échange de masse et de moment cinétique; ainsi, il a un impact durable sur leur évolution. De plus, l'accrétion est un ingrédient essentiel de la physique des systèmes étoile-disque à l'époque de formation planétaire. Selon le modèle d'accrétion magnétosphérique, une cavité de quelques rayons stellaires s'étend de la surface de l'étoile au bord interne du disque. L'interaction se produit donc par le champ magnétique stellaire, qui pénètre le disque interne et l'attèle à l'objet central. Des colonnes d'accrétion se développent du disque interne suivant les lignes de champ, et atteignent l'étoile à des vitesses presque de chute libre. L'impact à la surface crée des chocs localisés, qui sont responsables de l'excès de luminosité UV distinctif des systèmes accrétants par rapport aux objets non-accrétants. L'évolution temporelle intrinsèque et l'effet d'alternance du côté visible des objets au cours de leur rotation se mélangent dans la variabilité photométrique typique des étoiles jeunes, révélée par les campagnes de suivi.Durant ma thèse, j'ai mené une étude statistique du processus d'accrétion et de sa variabilité dans la région NGC 2264 (3 Myr). Cet amas contient plus de 700 membres, repartis entre étoiles avec disque (45%) et sans disque. J'ai qualifié l'accrétion par la diagnostique de l'excès UV; les étoiles de l'amas privées de disque définissent le niveau d'émission de référence au-dessus duquel l'excès UV provenant du choc d'accrétion est décelé et mesuré. Mon étude se base sur un jeu de données photométriques obtenues au télescope Canada-France-Hawaii (CFHT), comprenant un relevé profond en 4 filtres (u,g,r,i) et un suivi simultané de variabilité optique (bande r) et UV (bande u) d'une durée de 2 semaines et avec échantillonnage de l'ordre des heures. Dans une première étape de cette étude, je convertis les excès UV en taux d'accrétion pour obtenir une image globale du processus à travers l'amas et examiner sa dépendance envers les paramètres stellaires. Le taux d'accrétion moyen corrèle avec la masse de l'étoile, bien qu'une dispersion significative autour de cette tendance moyenne soit observée à chaque masse. Je montre que cet étalement ne peut pas être justifié par la variabilité des objets; une diversité de mécanismes d'accrétion et de stades évolutifs dans l'amas pourrait contribuer à la vaste gamme de régimes d'accrétion décelés. Ensuite, j'explore les signatures dans l'UV propres à des types distincts d'étoiles jeunes variables. Je montre que les étoiles accrétantes présentent en général une variabilité plus prononcée que les objets sans disque, et que les respectives variations de couleur sont cohérentes avec une origine différente de la variabilité associée aux deux groupes. Pour le premier groupe, ce sont les chocs d'accrétion à dominer, alors que le deuxième est dominé par des taches froides à la surface, dérivant de l'activité magnétique stellaire. Je compare les variations photométriques mesurées sur bases de quelques heures, quelques jours et quelques années, afin de déterminer quelles soient les composantes de variabilité les plus importantes. L'échelle de temps de quelques jours prévaut sur les autres délais investigués dans la variabilité enregistrée pour ces étoiles jeunes, avec une contribution majeure provenant de l'effet de modulation rotationnelle. Enfin, j'analyse les propriétés de rotation des étoiles de l'amas à partir d'un jeu de courbes de lumière optiques, d'une durée de 38 jours, obtenues avec le satellite CoRoT près de la campagne d'observation au CFHT. Je reconstruis la distribution de périodes de l'amas et montre que les objets sans disque tournent statistiquement plus vite que les objets accrétants. Cette connexion entre les propriétés d'accrétion et celles de rotation peut être interprétée dans le scénario de disk-locking. / Disk accretion plays a most important role in the star formation scenario. It governs the interaction of young stars with their disks, with a long-lasting impact on stellar evolution, by providing both mass and angular momentum regulation. Accretion is also a central ingredient in the physics of star-disk systems at the epoch when planets start to form. In the picture of magnetospheric accretion, a cavity of a few stellar radii extends from the star surface to the inner disk rim. The star-disk interaction is then mediated by the stellar magnetic field, whose lines thread the inner disk and couple it to the central object. Material from the inner disk is channeled along the field lines in accretion columns that reach the star at near free-fall velocities. The impact produces localized hot shocks at the stellar surface, which determine the distinctive UV excess emission of accreting objects relative to non-accreting sources. Intrinsic time evolution, and varying visibility of surface features during stellar rotation, combine in the characteristic photometric variability of young stars, revealed by monitoring surveys.In this thesis, I investigate the statistical properties of disk accretion and of its variability in the young open cluster NGC 2264 (3 Myr). This comprises a population of over 700 objects, about similarly distributed between disk-bearing (45%) and disk-free sources. I characterize accretion from the UV excess diagnostics; disk-free cluster members define the reference emission level over which the UV excess linked to accretion is detected and measured. The study is based on a homogeneous photometric dataset obtained at the Canada-France-Hawaii Telescope (CFHT), composed of a deep mapping of the region in four different bands (u,g,r,i) and of simultaneous optical (r-band) and UV (u-band) monitoring on timescales from hours to days for a period of 2 weeks. In the first part of the study, UV excesses are converted to accretion luminosities and mass accretion rates to derive a global picture of the accretion process across the cluster, and to investigate the dependence of the typical accretion properties on stellar parameters such as mass and age. A robust correlation is detected between the average accretion rate and stellar mass, but a significant dispersion in accretion rates is observed around this average trend at any given mass. I show that the extent of this spread cannot be accounted for by typical variability on week timescales; I discuss several aspects, including a diversity in accretion mechanisms and a non-negligible evolutionary spread among cluster members, which may contribute to the broad range of accretion regimes detected. In the second part of the study, I explore the variability signatures in the UV that pertain to different types of variable young stars. I show that accreting objects typically exhibit stronger variability than non-accreting objects, and that the color properties associated with the two groups are consistent with a statistically distinct origin of the variability features in the two cases. These are dominated, in the first case, by hot accretion spots, and in the second, by cold spots linked to magnetic activity. I compare the amounts of variability on timescales of hours, days and years, to assess the dominant components. The mid term (days) appears to be the leading timescale for variability in young stars up to years, with a major contribution from rotational modulation. In the third part of the study, I use a set of 38 day-long optical light curves obtained with the CoRoT satellite, close to the epoch of the CFHT survey, to investigate periodicity and rotation properties in NGC 2264. I derive the period distribution for the cluster and show that accreting and non-accreting objects exhibit statistically distinct properties: the second rotate on average faster than the first. I then illustrate the connection between accretion and rotation properties in the disk-locking scenario.

Page generated in 0.0423 seconds