• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2002
  • 592
  • 220
  • 54
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2889
  • 946
  • 506
  • 485
  • 300
  • 265
  • 262
  • 255
  • 230
  • 227
  • 218
  • 205
  • 205
  • 185
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

La France et la construction de l'Espace Européen de l'Enseignement Supérieur (EEES) depuis le début des années soixante à l'époque contemporaine

Gacem, Rachida 02 December 2013 (has links) (PDF)
Cette thèse porte sur la mise en place de l'Espace européen de l'enseignement supérieur (EEES), initié en 1998-1999 par le processus Sorbonne-Bologne, et dont l'artisan politique -souvent dénigré dans ce rôle majeur- n'est autre que le Ministre de l'Enseignement supérieur français Claude Allègre. Qualifié de processus des plus ambitieux jamais réalisé dans le domaine de l'enseignement supérieur européen, son objectif vise à instaurer une harmonisation des diplômes européens de l'enseignement supérieur, afin de rendre comparables et compatibles les systèmes nationaux de ces Etats sur la base du LMD.Initié dans le cadre d'un processus intergouvernemental, sur une base volontariste d'Etats désireux d'intégrer cet espace européen de l'enseignement supérieur prévu pour 2010, ce processus qui a tenu à l'écart la Commission européenne, du moins un temps, rassemble plus de 47 Etats signataires aujourd'hui ; près de la moitié sont des Etats extra-communautaires.L'objectif de cette étude est d'analyser le rôle et le degré de contribution de la France, et d'acteurs français au travers de la politique française menée dans ce domaine depuis la fin des années 1960, à nos jours.Une étude de cas spécifique à la France, nous permettra de nous interroger sur la place de la France dans le processus de Bologne, en présentant un état des lieux des forces et des faiblesses de la France dans le cadre de l'application de ce processus.
372

Modélisation markovienne en fiabilité: réduction des grands systèmes

Tombuyses, Béatrice 09 December 1994 (has links)
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité.<p><p>La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes .<p>La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée.<p><p>La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue :<p>accessibilité des états,<p>séparation des groupes de composants indépendants,<p>symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants.<p><p>Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée.<p><p>La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons.<p><p>Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité.<p><p>Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
373

Tests d'ajustement pour des processus stochastiques dans le cas de l'hypothèse nulle paramétrique / On goodness-of-fit tests with parametric hypotheses for some stochastic processes

Ben Abdeddaiem, Maroua 11 May 2016 (has links)
Ce travail est consacré au problème de construction des tests d'ajustement dans le cas des processus stochastiques observés en temps continu. Comme modèles d'observations, nous considérons les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. Sous l'hypothèse nulle, nous traitons le cas où chaque modèle dépend d'un paramètre inconnu unidimensionnel et nous proposons l'estimateur de distance minimale pour ce paramètre. Notre but est la construction des tests d'ajustement « asymptotically distribution free » (ADF) de niveau asymtotique α ϵ (0,1) dans le cas de cette hypothèse paramétrique pour les modèles traités. Nous montrons alors que la limite de chaque statistique étudiée ne dépend ni du modèle ni du paramètre inconnu. Les tests d'ajustement basés sur ces statistiques sont donc ADF. L'objectif principal de ce travail est la construction d'une transformation linéaire spéciale. En particulier, nous résolvons l'équation de Fredholm du second type avec le noyau dégénéré. Sa solution nous permet de construire la transformation linéaire désirée. Ensuite, nous montrons que l'application de cette transformation aux statistiques de base étudiées dans chaque modèle nous aide à introduire des statistiques ayant la même limite (l'intégrale du carrée du processus de Wiener). Cette dernière est « distribution free » vu qu'elle ne dépend ni du modèle ni du paramètre inconnu. Par conséquent, nous proposons des tests d'ajustement ADF en se basant sur cette transformation linéaire pour les processus de diffusion avec « petit bruit » et ergodique et le processus de Poisson non homogène. / This work is devoted to the problem of the construction of several goodness of-fit (GoF) tests in the case of somestochastic processes observed in continuous time. As models of observations, we take "small noise" and ergodic diffusionprocesses and an inhomogeneous Poisson process. Under the null hypothesis, we treat the case where each model depends on an unknown one-dimensional parameter and we consider the minimum distance estimator for this parameter. Our goal is to propose "asymptotically distribution free" (ADF) GoF tests of asymptotic size α ϵ (0,1) in the case of the parametric null hypotheses for the considered models. Indeed, we show that the limit of each studied statistic does not depend on the model and the unknown parameter. Therefore, the tests based on these statistics are ADF.The main purpose of this work is to construct a special linear transformation. In particular, we solve Fredholm equation ofthe second kind with degenerated kernel. Its solution gives us the desired linear transformation. Next, we show that theapplication of this transformation to the basic statistics allows us to introduce statistics with the same limit (the integral of the square of the Wiener process). The latter is "distribution free" because it does not depend on the models and the unknown parameter. Therefore, we construct the ADF GoF tests which are based on this linear transformation for the diffusion ("small noise" and ergodic) and inhomogeneous Poisson processes.
374

Analyse statistique de processus stochastiques : application sur des données d’orages / Inference for some stochastic processes : with application on thunderstorm data

Do, Van-Cuong 19 April 2019 (has links)
Les travaux présentés dans cette thèse concernent l'analyse statistique de cas particuliers du processus de Cox. Dans une première partie, nous proposons une synthèse des résultats existants sur le processus power-law (processus d'intensité puissance), synthèse qui ne peut être exhaustive étant donné la popularité de ce processus. Nous considérons une approche bayésienne pour l'inférence des paramètres de ce processus qui nous conduit à introduire et à étudier en détails une distribution que nous appelons loi H-B. Cette loi est une loi conjuguée. Nous proposons des stratégies d'élicitation des hyperparamètres et étudions le comportement des estimateurs de Bayes par des simulations. Dans un deuxième temps, nous étendons ces travaux au cas du processus d’intensité exponentielle (exponential-law process). De la même façon, nous définissons et étudions une loi conjuguée pour l'analyse bayésienne de ce dernier. Dans la dernière partie de la thèse, nous considérons un processus auto-excité qui intègre une covariable. Ce travail est motivé, à l'origine, par un problème de fiabilité qui concerne des données de défaillances de matériels exposés à des environnements sévères. Les résultats sont illustrés par des applications sur des données d'activités orageuses collectées dans deux départements français. Enfin, nous donnons quelques directions de travail et perspectives de futurs développements de l'ensemble de nos travaux. / The work presented in this PhD dissertation concerns the statistical analysis of some particular cases of the Cox process. In a first part, we study the power-law process (PLP). Since the literature for the PLP is abundant, we suggest a state-of-art for the process. We consider the classical approach and recall some important properties of the maximum likelihood estimators. Then we investigate a Bayesian approach with noninformative priors and conjugate priors considering different parametrizations and scenarios of prior guesses. That leads us to define a family of distributions that we name H-B distribution as the natural conjugate priors for the PLP. Bayesian analysis with the conjugate priors are conducted via a simulation study and an application on real data. In a second part, we study the exponential-law process (ELP). We review the maximum likelihood techniques. For Bayesian analysis of the ELP, we define conjugate priors: the modified- Gumbel distribution and Gamma-modified-Gumbel distribution. We conduct a simulation study to compare maximum likelihood estimates and Bayesian estimates. In the third part, we investigate self-exciting point processes and we integrate a power-law covariate model to this intensity of this process. A maximum likelihood procedure for the model is proposed and the Bayesian approach is suggested. Lastly, we present an application on thunderstorm data collected in two French regions. We consider a strategy to define a thunderstorm as a temporal process associated with the charges in a particular location. Some selected thunderstorms are analyzed. We propose a reduced maximum likelihood procedure to estimate the parameters of the Hawkes process. Then we fit some thunderstorms to the power-law covariate self-exciting point process taking into account the associated charges. In conclusion, we give some perspectives for further work.
375

Développement d'une méthodologie d'assistance au commissionnement des bâtiments à faible consommation d'énergie

Hannachi-Belkadi, Nazila Kahina 08 July 2008 (has links) (PDF)
Les bâtiments à faible consommation d'énergie connaissent, ces dernières années, un grand intérêt étant donné le rôle important qu'ils jouent dans la diminution des émissions de gaz à effet de serre d'une part, et la flambée des prix des combustibles, d'autre part. Néanmoins, dans de nombreux cas la réalisation de ce type de bâtiments n'atteint pas les performances escomptées. Ce problème est dû en grande partie à : 1) la perte d'informations tout au long du cycle de vie du bâtiment, 2) la non évaluation régulière des décisions prises par les acteurs intervenants. Le commissionnement en tant que processus de contrôle qualité joue un rôle important dans le bon déroulement du processus de réalisation de bâtiments à faible consommation d'énergie. Cette recherche vise à développer une méthodologie dont l'objectif est d'assister les personnes responsables de cette mission dans la définition de plans de commissionnement adaptés à leurs projets. Nous avons réalisé en premier, un état de l'art de la réalisation des bâtiments à faible consommation d'énergie, que nous avons par la suite confronté à la réalité à travers une enquête auprès des acteurs du bâtiment et d'étude de cas réels. Cette étape nous a permis de formuler une hypothèse concernant la nécessité d'un commissionnement "évolutif" -adapté aux particularités de chaque projet - et de décrire une méthodologie globale d'assistance à la conception des bâtiments à faible consommation d'énergie, qui intègre une aide à la décision, une gestion de l'information et un commissionnement "évolutif" qui vient vérifier le bon déroulement des deux premiers. Pour mettre en application cette méthodologie, une boîte à outils a été développée. Elle est constituée de : 1) un outil dit "statique" qui permet de définir un premier plan de commissionnent générique qui répond aux caractéristiques d'un projet, à partir d'une base de données exhaustives de tâches de commissionnement, 2) un outil dit "dynamique" basé sur les probabilités, qui permet de mettre à jour le plan de commissionnement initial (générique), en l'adaptant au projet en cours. Cette mise à jour permet de prendre en compte les particularités et imprévus rencontrés lors de la réalisation d'un projet, rendant ainsi le plan de commissionnement plus précis. Une expérimentation, dans un cas réel, du premier outil et des applications du second ont été faites pour montrer leurs possibilités et leurs limites. Les résultats font apparaître deux points importants : 1) l'intérêt d'avoir un plan de commissionnement structuré et évolutif pour vérifier la qualité de la réalisation des bâtiments à faible consommation d'énergie et assurer ainsi l'atteinte des performances souhaitées, 2) l'intérêt d'utiliser un outil probabiliste tel que les réseaux Bayésiens pour anticiper les dérives et prendre en charge les imprévus rencontrés lors de ce processus vivant. Cette méthodologie représente une base pour le développement d'outils d'assistance à la définition de plans de commissionnement "évolutifs" pour le neuf et l'existant, et tous les secteurs du bâtiment
376

L'attention visuelle sélective : pertinence, saillance, résistance à l'interférence / Visual selective attention : relevance, salience and resistance to interference

Fernandez, Damien 04 November 2010 (has links)
Cette thèse portait sur l'attention visuelle sélective, dans le domaine non-spatial, c'est-à-dire la capacité à favoriser le traitement perceptif de certains objets de la scène visuelle au détriment des autres. En particulier, l'objectif était d'étudier, à l'aide de tâches de recherche visuelle, les différentes interactions possibles entre les processus endogènes (liés aux intentions et connaissances du sujet) et les processus exogènes (liés aux caractéristiques perceptives des objets). Une première série d'expériences démontrait que la saillance pouvait présenter des effets relativement durables. Cependant, ces effets de saillance pouvaient être favorisés ou contrecarrés par des processus endogènes (induits par indiçage portant sur la taille), et modulés par l'amorçage perceptif. Une seconde série d'expériences démontrait que la résistance à l'interférence induite par un distracteur saillant dépendait de ressources attentionnelles centrales, et était modulée par la charge perceptive. Enfin, la troisième série d'expériences validait l'hypothèse d'une intégration entre des signaux endogènes et exogènes compatibles mais strictement distincts. La falsification de l'inégalité de Miller (1982) précisait que cette intégration reposait sur une coactivation effective, non sur une simple facilitation statistique entre signaux strictement indépendants. Le locus cognitif de cette intégration semble être le système perceptif. L'ensemble des données présentées souligne la flexibilité du contrôle attentionnel, et invite à développer un modèle général de l'attention visuelle sélective basé sur l'hypothèse de compétition biaisée (Desimone & Duncan, 1995). / This thesis was about visual selective attention, toward non-spatial features, that is, the ability to favour the perceptual processing of some objects in the visual scene, at the expense of others. In particular, the aim was to study, through visual search experiments, the various possible interactions between endogenous (linked with incentives and knowledge of subjects) and exogenous (linked with perceptual properties of the objects) processes. The first series of experiments showed long-lived salience effects. These salience effects could, hewever, be favoured or overriden by endogenous processes (induced by cueing the target size), and modulated by perceptual priming. The second series evidenced that resisting the interference induced by a salient distractor depended on central attentional resources, and was modulatted by perceptual load. Finally, the third series demonstrated that separate endogenous and exogenous signals could genuinely integrate. This integration could not be accounted for by a race between strictly independant signals, as evidenced by the falsification of the Miller's (1982) inequality. This integration might occur in the perceptual system. Theglobal set of data highlighted the flexibility of endogenous attentional control, and invited developping a general model of visual selective attention, on the basis of the biased competition hypothesis.
377

Simulation-based inference and nonlinear canonical analysis in financial econometrics

Valéry, Pascale January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
378

L’impact de l’utilisation du traitement de texte sur la qualité de l’écriture d’élèves québécois du secondaire

Grégoire, Pascal 03 1900 (has links)
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif. / The supposed decline of writing skills in Quebecois students’ during the last decades has raised vigorous debates. Admittedly, their competencies show deficiencies. Indeed, reports by the Ministry of Education (Jalbert, 2006; Ouellet, 1984) and research, both scientific and governmental (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984), reveal their incapacity to appropriate the writing process. ICT might well be part of the solution : it is a well-known fact that they encourage scholastic achievement in certain contexts (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, et al., 2003). However, do they modify the writing process so as to facilitate its learning? This question is at the heart of the current research project. Writing process models, such as those of Hayes and Flower (1981; 1995; 1980), remind us that ICT are a part of the Context component; as such, they influence the quality of the texts as much as cognitive processes and motivation. They unburden the cognitive process by taking on certain functions such as calligraphy (Daiute, 1983). Consequently, the writer may concentrate on more complex tasks. Meta-analyses (Bangert-Drowns, 1993; Goldberg, et al., 2003) show that the use of word processors has a small yet statistically significant effect on the quality of writing. That being said, they are mainly linked to surface changes (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Research projects that explore the impact of word processors on the writing process and its various dimensions simultaneously are rare, even more so since the last twenty years. To satisfy this research gap, the present thesis aims at 1) measuring ICT effect upon the quality of writing; 2) describe ICT impact on the cognitive processes of translating and reviewing; 3) measure ICT impact on motivation to write. To this objective, we utilize a mixed methodology. On one hand, a quasi-experimental design allows for a comparison of technological writers to traditional writers; on the other, a qualitative approach provides access to the thoughts and perceptions of computer users. The three articles that constitute the heart of this thesis relate the results pertaining to the stated research objectives. In the first text, we measured the effects of word processing on the quality of writing. The statistical analysis of the dataset allowed us to observe an improvement in spelling, but not grammatical spelling. In comparison, students of the control group showed improvements in their texts’ logical coherence and grammatical orthography. The second article intends to shed light on these results. The impact of ICT on the cognitive processes of translating and reviewing is studied to that effect. This aspect, which is based on a qualitative approach, is largely based on video observation. First, are highlighted the many errors committed when word processing is used. Then, is underlined the poor use of spell checking tools, that oftentimes provide inappropriate diagnostics or that are simply ignored by users. However, group interviews have shown positive perceptions vis-à-vis ICT, despite their poor use. Indeed, they are considered motivating and their benefits, although recognized, do not seem to have an impact. The motivating factor is at the heart of the last article, which measures the impact of writing methods on the motivation to write. A quantitative analysis is used to that effect. The participants’ motivation was measured using a motivational scale. The statistical analysis of the dataset demonstrates that technological students are intrinsically motivated by ICT, whereas their peers of the control group are amotivated. In the concluding chapter, we put theses results in relation with one another so as to explain the impact of ICT on the writing process as a whole. Lastly, we hope to provide possible recommendations to practitioners and decision makers within the educational system.
379

Inférence statistique à travers les échelles / Statistical inference across time scales

Duval, Céline 07 December 2012 (has links)
Cette thèse porte sur le problème d'estimation à travers les échelles pour un processus stochastique. Nous étudions comment le choix du pas d'échantillonnage impacte les procédures statistiques. Nous nous intéressons à l'estimation de processus à sauts à partir de l'observation d'une trajectoire discrétisée sur [0, T]. Lorsque la longueur de l'intervalle d'observation T va à l'infini, le pas d'échantillonnage tend soit vers 0 (échelle microscopique), vers une constante positive (échelle intermédiaire) ou encore vers l'infini (échelle macroscopique). Dans chacun de ces régimes nous supposons que le nombre d'observations tend vers l'infini. Dans un premier temps le cas particulier d'un processus de Poisson composé d'intensité inconnue avec des sauts symétriques {-1,1} est étudié. Le Chapitre 2 illustre la notion d'estimation statistique dans les trois échelles définies ci-dessus. Dans ce modèle, on s'intéresse aux propriétés des expériences statistiques. On montre la propriété de Normalité Asymptotique Locale dans les trois échelles microscopiques, intermédiaires et macroscopiques. L'information de Fisher est alors connue pour chacun de ces régimes. Ensuite nous analysons comment se comporte une procédure d'estimation de l'intensité qui est efficace (de variance minimale) à une échelle donnée lorsqu'on l'applique à des observations venant d'une échelle différente. On regarde l'estimateur de la variation quadratique empirique, qui est efficace dans le régime macroscopique, et on l'utilise sur des données provenant des régimes intermédiaire ou microscopique. Cet estimateur reste efficace dans les échelles microscopiques, mais montre une perte substantielle d'information aux échelles intermédiaires. Une procédure unifiée d'estimation est proposée, elle est efficace dans tous les régimes. Les Chapitres 3 et 4 étudient l'estimation non paramétrique de la densité de saut d'un processus renouvellement composé dans les régimes microscopiques, lorsque le pas d'échantillonnage tend vers 0. Un estimateur de cette densité utilisant des méthodes d'ondelettes est construit. Il est adaptatif et minimax pour des pas d'échantillonnage qui décroissent en T^{-alpha}, pour alpha>0. La procédure d'estimation repose sur l'inversion de l'opérateur de composition donnant la loi des incréments comme une transformation non linéaire de la loi des sauts que l'on cherche à estimer. L'opérateur inverse est explicite dans le cas du processus de Poisson composé (Chapitre 3), mais n'a pas d'expression analytique pour les processus de renouvellement composés (Chapitre 4). Dans ce dernier cas, il est approché via une technique de point fixe. Le Chapitre 5 étudie le problème de perte d'identifiabilité dans les régimes macroscopiques. Si un processus à sauts est observé avec un pas d'échantillonnage grand, certaines approximations limites, telles que l'approximation gaussienne, deviennent valides. Ceci peut entraîner une perte d'identifiabilité de la loi ayant généré le processus, dès lors que sa structure est plus complexe que celle étudiée dans le Chapitre 2. Dans un premier temps un modèle jouet à deux paramètres est considéré. Deux régimes différents émergent de l'étude : un régime où le paramètre n'est plus identifiable et un où il reste identifiable mais où les estimateurs optimaux convergent avec des vitesses plus lentes que les vitesses paramétriques habituelles. De l'étude de cas particulier, nous dérivons des bornes inférieures montrant qu'il n'existe pas d'estimateur convergent pour les processus de Lévy de saut pur ou pour les processus de renouvellement composés dans les régimes macroscopiques tels que le pas d'échantillonnage croît plus vite que racine de T. Enfin nous identifions des régimes macroscopiques où les incréments d'un processus de Poisson composé ne sont pas distinguables de variables aléatoires gaussiennes, et des régimes où il n'existe pas d'estimateur convergent pour les processus de Poisson composés dépendant de trop de paramètres / This thesis studies the problem of statistical inference across time scales for a stochastic process. More particularly we study how the choice of the sampling parameter affects statistical procedures. We narrow down to the inference of jump processes from the discrete observation of one trajectory over [0,T]. As the length of the observation interval T tends to infinity, the sampling rate either goes to 0 (microscopic scale) or to some positive constant (intermediate scale) or grows to infinity (macroscopic scale). We set in a case where there are infinitely many observations. First we specialise in a toy model: a compound Poisson process of unknown intensity with symmetric Bernoulli jumps. Chapter 2 highlights the concept of statistical estimation in the three regimes defined above and the phenomena at stake. We study the properties of the statistical experiments in each regime, we show that the Local Asymptotic Normality property holds in every regimes (microscopic, intermediate and macroscopic). We also provide the formula of the associated Fisher information in each regime. Then we study how a statistical procedure which is optimal (of minimal variance) at a given scale is affected when we use it on data coming from another scale. We focus on the empirical quadratic variation estimator, it is an optimal procedure at macroscopic scales. We apply it on data coming from intermediate and microscopic regimes. Although the estimator remains efficient at microscopic scales, it shows a substantial loss of information when used on data coming from an intermediate regime. That loss can be explicitly related to the sampling rate. We provide an unified procedure, efficient in all regimes. Chapters 3 and 4 focus on microscopic regimes, when the sampling rate decreases to 0. The nonparametric estimation of the jump density of a renewal reward process is studied. We propose an adaptive wavelet threshold density estimator. It achieves minimax rates of convergence for sampling rates that vanish polynomially with T, namely in T^{-alpha} for alpha>0. The estimation procedure is based on the inversion of the compounding operator in the same spirit as Buchmann and Grübel (2003), which specialiase in the study of discrete compound laws. The inverse operator is explicit in the case of a compound Poisson process (see Chapter 3), but has no closed form expression for renewal reward processes (see Chapter 4). In that latter case the inverse operator is approached with a fixed point technique. Finally Chapter 5 studies at which rate identifiability is lost in macroscopic regimes. Indeed when a jump process is observed at an arbitrarily large sampling rate, limit approximations, like Gaussian approximations, become valid and the specificities of the jumps may be lost, as long as the structure of the process is more complex than the one introduced in Chapter 2. First we study a toy model depending on a 2-dimensional parameter. We distinguish two different regimes: fast (macroscopic) regimes where all information on the parameter is lost and slow regimes where the parameter remains identifiable but where optimal estimators converge with slower rates than the expected usual parametric ones. From this toy model lower bounds are derived, they ensure that consistent estimation of Lévy processes or renewal reward processes is not possible when the sampling rate grows faster than the square root of T. Finally we identify regimes where an experiment consisting in increments of a compound Poisson process is asymptotically equivalent to an experiment consisting in Gaussian random variables. We also give regimes where there is no consistent estimator for compound Poisson processes depending on too many parameters
380

Processus épidémiques sur réseaux dynamiques / Epidemic Processes on Dynamic Networks

Machens, Anna 24 October 2013 (has links)
Dans cette thèse nous contribuons à répondre aux questions sur les processus dynamiques sur réseaux temporels. En particulier, nous etudions l'influence des représentations de données sur les simulations des processus épidémiques, le niveau de détail nécessaire pour la représentation des données et sa dépendance des paramètres de la propagation de l'épidémie. Avec l'introduction de la matrice de distributions du temps de contacts nous espérons pouvoir améliorer dans le futur la précision des prédictions des épidémies et des stratégies d'immunisation en intégrant cette représentation des données aux modèles d'épidémies multi-échelles. De plus nous montrons comment les processus épidémiques dynamiques sont influencés par les propriétés temporelles des données. / In this thesis we contribute to provide insights into questions concerning dynamic epidemic processes on data-driven, temporal networks. In particular, we investigate the influence of data representations on the outcome of epidemic processes, shedding some light on the question how much detail is necessary for the data representation and its dependence on the spreading parameters. By introducing an improvement to the contact matrix representation we provide a data representation that could in the future be integrated into multi-scale epidemic models in order to improve the accuracy of predictions and corresponding immunization strategies. We also point out some of the ways dynamic processes are influenced by temporal properties of the data.

Page generated in 0.0968 seconds