• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 11
  • 2
  • 1
  • 1
  • Tagged with
  • 34
  • 34
  • 14
  • 13
  • 11
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inférence statistique pour certains modèles prédateur-proie

Zahedi, Ashkan January 2008 (has links) (PDF)
On propose une méthode stochastique qui s'applique à des systèmes non linéaires d'équations différentielles qui modélisent l'interaction de deux espèces; le but est d'établir si un système déterministe particulier peut s'ajuster à des données qui présentent un comportement oscillatoire. L'existence d'un cycle limite est essentielle pour l'implantation de notre méthode. Cette procédure se base sur l'estimation des isoclines du système, en utilisant le fait que les isoclines traversent les solutions du système à des points maximum et minimum. Ensuite, nous proposons des tests qui permettent de comparer trois modèles: Holling (1959), Hanski et al. (1991), and Arditi et al. (2004). Finalement, on utilise des données simulées pour illustrer et étudier les propriétés de notre méthode, et nous appliquons la procédure à un ensemble de données bien connu. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Systèmes prédateur-proie, Équations différentielles ordinaires, Plan des phases, Isoclines, Modèle stochastique, Régression linéaire, Estimation par moindres carrés, Test de t, Test de Wilcoxon.
2

Les déterminants de la santé en Chine : une approche de frontières stochastiques

Yao, Coffessou Diane January 2009 (has links) (PDF)
Les pays développés ont les indicateurs de santé les plus favorables du monde, à savoir, des taux de mortalités infantiles très bas et des niveaux d'espérance de vie très élevés. Plusieurs études essayent de cerner la relation qui existe entre les ressources de santé mises à la disposition des populations et J'état de santé de ces mêmes populations. II est possible de le faire en étudiant les dépenses de santé en relation avec l'état de santé. Toutefois, dans la plupart des études passées, des difficultés inhérentes à l'hétérogénéité des données ont fait en sorte qu'on obtient le plus souvent des résultats incertains. Il y a un manque de données de qualité, alors que le recours à des données homogènes est d'une très grande importance pour pouvoir mieux cerner l'impact des ressources en santé. Une des seules façons d'y arriver est d'utiliser des données provenant d'une seule source. Par exemple, le choix peut se porter sur des données provenant d'un seul pays, d'où l'intérêt d'utiliser des données régionales de la Chine. L'utilisation de ces données permet de tenir compte d'une part, du poids de la taille relative de chaque région dans l'analyse. Et d'autre part, elle permet d'éviter des problèmes liés à l'hétérogénéité des données. De ce fait, il n'y a pas de nécessité de conversion des unités monétaires, ni d'imprécision sur la notion de santé comme ce serait le cas dans une étude basée sur plusieurs pays. Les données chinoises sont fiables et de grande qualité et par conséquent peuvent être utilisées pour identifier les déterminants de la santé. Le fait que la Chine soit un pays émergent constitue un attrait en soi. Dans les pays développés, les investissements en santé sont extrêmement importants et de fait, le taux de rendement des dépenses en santé devient très faible (Crémieux et al., 1999). L'identification des déterminants de la santé devient difficile car la relation est identifiable à une constante et donc peu significative. Comme les dépenses de santé et les niveaux de santé dans les pays en voie de développement et les pays en émergence sont plus faibles, les possibilités d'identification des déterminants de la santé deviennent plus fortes. C'est cette combinaison de données de qualité et homogènes ainsi que de taux de rendement positif qui explique le recours aux données chinoises. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Frontières stochastiques, Déterminants de la santé, Taux de mortalité.
3

Le processus de volatilité : une étude de la dynamique des marchés financiers via des modèles stochastiques paramétriques de volatilité et une comparaison de l'information portée par les prix d'options

Javaheri, Alireza 08 October 2004 (has links) (PDF)
Il est bien connu que l'hypothèse d'une volatilité constante pour le rendement des prix d'actions est insuffisante. En effet le cadre traditionnel de Samuelson-Black-Scholes ne pourrait pas expliquer l'asymétrie de la distribution ou sa leptokurticité. Plusieurs théories ont été proposées pour expliquer ces phénomènes, mais elles pourraient toutes être considérées comme faisant partie de la théorie de la volatilité stochastique. Ces modèles incluent Heston, GARCH, Variance-Gamma et utilisent des mouvements Browniens ainsi que des sauts de Poisson ou Lévy.Une des difficultés principales de la volatilité est qu'elle n'est pas directement observable. Par conséquent, pour estimer les paramètres du modèle, on a besoin du filtrage non-linéaire. On pourrait également utiliser des méthodes Bayesiennes comme les Chaînes de Markov Monte-Carlo.Cette thèse est centrée sur les filtrages non-Gaussiens de même que sur la comparaison des distributions obtenues dans le monde réel avec celles obtenues dans le cadre risque-neutre.
4

Incertitudes structurales en géomodélisation : échantillonnage et approche inverse / Structural uncertainties in geomodeling : sampling and inverse approach

Cherpeau, Nicolas 04 April 2012 (has links)
La modélisation du sous-sol est un outil indispensable pour décrire, comprendre et quantifier les processus géologiques. L'accès au sous-sol et son observation étant limités aux moyens d'acquisition, la construction de modèles tridimensionnels du sous-sol repose sur l'interprétation de données éparses à résolution limitée. Dans ce contexte, de nombreuses incertitudes affectent la construction de tels modèles, dues aux possibles biais humains cognitifs lors de l'interprétation, à la variabilité naturelle des objets géologiques et aux incertitudes intrinsèques des données utilisées. Ces incertitudes altèrent la prédictibilité des modèles et leur évaluation est donc nécessaire afin de réduire les risques économiques et humains liés à l'utilisation des modèles. Le travail de thèse s'est déroulé dans le cadre plus spécifique des incertitudes sur les structures géologiques. Les réponses apportées sont multiples : (1) une méthode stochastique de génération de modèles structuraux à géométrie et topologie changeantes, combinant une connaissance a priori des structures géologiques aux données interprétées, a été développée ; (2) le réalisme géologique des structures modélisées est garanti grâce à la modélisation implicite, représentant une surface par une équipotentielle d'un champ scalaire volumique ; (3) la description des failles en un nombre restreint de paramètres incertains a permis d'aborder la modélisation inverse, ce qui ouvre la voie vers l'assimilation de données géophysiques ou d'écoulement fluides grâce à des méthodes bayesiennes / Subsurface modeling is a key tool to describe, understand and quantify geological processes. As the subsurface is inaccessible and its observation is limited by acquisition methods, 3D models of the subsurface are usually built from the interpretation of sparse data with limited resolution. Therefore, uncertainties occur during the model building process, due to possible cognitive human bias, natural variability of geological objects and intrinsic uncertainties of data. In such context, the predictability of models is limited by uncertainties, which must be assessed in order to reduce economical and human risks linked to the use of models. This thesis focuses more specifically on uncertainties about geological structures. Our contributions are : (1) a stochastic method for generating structural models with various fault and horizon geometries as well as fault connections, combining prior information and interpreted data, has been developped ; (2) realistic geological objects are obtained using implicit modeling that represents a surface by an equipotential of a volumetric scalar field ; (3) faults have been described by a reduced set of uncertain parameters, which opens the way to the inversion of structural objects using geophysical or fluid flow data by baysian methods
5

Contrôle de qualité optimal d'applications multimédia

Strus, Loïc 19 September 2008 (has links) (PDF)
Ce manuscrit présente une méthode de contrôle de qualité de service à grain fin d'applications multimédia. Celle-ci permet le contrôle d'applications dont les actions sont paramétrées par des niveaux de qualité et dont les durées d'exécution ne sont pas connues. Le contrôle consiste en la construction d'un ordonnancement et le choix des niveaux de qualité respectant des propriétés de sûreté et d'optimalité. C'est-à-dire que l'on cherche à maximiser l'utilisation du budget de temps sans pour autant le dépasser tout en ayant un choix de qualité régulier. Le contrôleur utilise une politique de gestion de qualité permettant de choisir pour chaque action l'ordonnancement et le niveau de qualité respectant les contraintes de qualité de service. Nous étendons et améliorons les résultats précédents dans deux directions. La première propose une approche symbolique de la politique de gestion de qualité. Celle-ci utilise un diagramme de vitesses qui est une représentation graphique du comportement de l'application contrôlée. À partir de cette représentation, nous avons proposé une technique de contrôle permettant de relâcher le nombre d'appels au contrôleur tout en respectant les propriétés de sûreté et d'optimalité. Nous avons ensuite proposé une approche stochastique du problème basée sur des fonctions de distribution de probabilités pour les durées d'exécution des actions. Notre méthode donne la possibilité à l'utilisateur de fixer la criticité des contraintes temps-réel. Elle permet aussi de calculer à priori le taux attendu de dépassement des échéances. Ces résultats théoriques ont été appuyés par des expériences réalisées sur un encodeur vidéo s'exécutant sur machine nue.
6

Modélisation de la variance dans l'analyse stochastique du passif des polices

Davidov, Danaïl January 2009 (has links) (PDF)
Ce mémoire fait une étude détaillée des méthodes utilisées pour modéliser les réserves actuarielles en assurance de dommages. Les méthodes stochastiques utilisent des modèles linéaires généralisés qui permettent d'associer une courbe de probabilités aux pertes futures. Une analyse approfondie de la classe de modèles de Tweedie est présentée, ce qui permet d'obtenir les formules d'un large spectre de modèles. Ensuite, l'ouvrage met en évidence une différence dans la nature du risque entre la fréquence et la sévérité qui suscite la nécessité d'utiliser un modèle qui accorde plus de liberté aux facteurs de surdispersion. Deux solutions sont abordées: les modèles de dispersion, basés sur le principe du maximum de vraisemblance, et les modèles linéaires généralisés doubles, axés sur le principe de la déviance. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Réserves actuarielles, Chain Ladder, Modèles linéaires généralisés, Loi de Tweedie, Déviance, Paramètre de surdispersion, Modèles de dispersion, Modèles linéaires généralisés doubles.
7

Estimation de paramètres dans des modèles d'épidémies

Leduc, Hugues 04 1900 (has links) (PDF)
Ce mémoire porte sur l'estimation de paramètres dans des modèles de propagation des épidémies dans le temps. On considère le cas d'une population fermée dans laquelle chacun des individus est soit susceptible, soit infecté, soit retiré (S-I-R). Un individu est dit infecté lorsqu'il est atteint d'une maladie infectieuse et qu'il est contagieux. Un individu qui n'a pas encore été infecté est dit susceptible, alors qu'un individu qui a été atteint par la maladie et qui n'est plus infecté est dit retiré (immunisé ou décédé). Un paramètre important dans ce type de modèles est le taux de reproduction R0, qui s'interprète comme le nombre moyen d'individus à qui un individu infecté transmet la maladie, au début de l'épidémie. Plus la valeur de R0 > 1 est grande, plus l'épidémie est importante. On propose d'abord deux modèles stochastiques pour l'évolution d'une épidémie en se basant sur un modèle déterministe classique, le modèle SIR de Kermack et McKendrick (1927). Les modèles tiennent compte du type de données disponibles en pratique. Par la suite, on étudie une nouvelle méthode d'estimation de R0 et on construit un intervalle de confiance asymptotique pour R0. Finalement, on présente des résultats obtenus en appliquant la méthode d'estimation de R0 sur des données simulées à l'aide des modèles proposés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modèle SIR de propagation d'une épidémie, taux de reproduction R0, estimation, processus de naissance ct de mort non homogène, processus de Poisson non homogène.
8

Modèles stochastiques pour l'interaction prédateur-proie

Vanciu, Vasile 06 1900 (has links) (PDF)
Dans cette étude, nous nous penchons sur le modèle Lotka-Volterra, qui est un des premiers modèles prédateur-proie basés sur des principes mathématiques. Le mémoire s'inscrit dans le cadre de la modélisation stochastique du système Lotka-Volterra, c'est-à-dire notre modèle prend en considération que les tailles des populations de proies et de prédateurs sont des variables aléatoires. L'objectif principal est de faire de l'inférence statistique et de la simulation numérique à partir des modèles construits. Nous nous intéressons également à analyser la probabilité d'extinction pour chaque population. Nos modèles sont basés sur certaines propriétés du système déterministe Lotka-Volterra, ainsi que des propriétés des processus de Poisson non homogènes et des processus de naissance et mort non homogènes. Le dernier chapitre de ce mémoire est consacré à l'estimation de paramètres et son étude à partir de simulations numériques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : système Lotka-Volterra, processus de Poisson non homogène, processus de naissance et mort non homogène, modélisation stochastique, estimation de paramètres, interaction prédateur-proie.
9

Stochastic models for protein production : the impact of autoregulation, cell cycle and protein production interactions on gene expression / Modèles stochastiques pour la production des protéines : l'impact de l'autorégulation, du cycle cellulaire et des intéractions entre les productions de protéines sur l'expression génétique

Dessalles, Renaud 11 January 2017 (has links)
Le mécanisme de production des protéines, qui monopolise la majorité des ressources d'une bactérie, est hautement stochastique: chaque réaction biochimique qui y participe est due à des collisions aléatoires entre molécules, potentiellement présentes en petites quantités. La bonne compréhension de l'expression génétique nécessite donc de recourir à des modèles stochastiques qui sont à même de caractériser les différentes origines de la variabilité dans la production ainsi que les dispositifs biologiques permettant éventuellement de la contrôler.Dans ce contexte, nous avons analysé la variabilité d'une protéine produite avec un mécanisme d'autorégulation négatif: c'est-à-dire dans le cas où la protéine est un répresseur pour son propre gène. Le but est de clarifier l'effet de l'autorégulation sur la variance du nombre de protéines exprimées. Pour une même production moyenne de protéine, nous avons cherché à comparer la variance à l'équilibre d'une protéine produite avec le mécanisme d'autorégulation et celle produite en « boucle ouverte ». En étudiant un modèle limite, avec une mise à l'échelle (scaling), nous avons pu faire une telle comparaison de manière analytique. Il apparaît que l'autorégulation réduit effectivement la variance, mais cela reste néanmoins limité : un résultat asymptotique montre que la variance ne pourra pas être réduite de plus de 50%. L'effet sur la variance à l'équilibre étant modéré, nous avons cherché un autre effet possible de l'autorégulation: nous avons observé que la vitesse de convergence à l'équilibre est plus rapide dans le cadre d'un modèle avec autorégulation.Les modèles classiques de production des protéines considèrent un volume constant, sans phénomènes de division ou de réplication du gène, avec des ARN-polymérases et les ribosomes en concentrations constantes. Pourtant, les variation au cours du cycle de chacune de ces quantités a été proposée dans la littérature comme participant à la variabilité des protéines. Nous proposons une série de modèles de complexité croissante qui vise à aboutir à une représentation réaliste de l'expression génétique. Dans un modèle avec un volume suivant le cycle cellulaire, nous intégrons successivement le mécanisme de production des protéines (transcription et traduction), la répartition aléatoire des composés à la division et la réplication du gène. Le dernier modèle intègre enfin l'ensemble des gènes de la cellule et considère leurs interactions dans la production des différentes protéines à travers un partage commun des ARN-polymérases et des ribosomes, présents en quantités limitées. Pour les modèles où cela était possible, la moyenne et la variance de la concentration de chacune des protéines ont été déterminées analytiquement en ayant eu recours au formalisme des Processus Ponctuels de Poisson Marqués. Pour les cas plus complexes, nous avons estimé la variance au moyen de simulations stochastiques. Il apparaît que, dans l'ensemble des mécanismes étudiés, la source principale de la variabilité provient du mécanisme de production des protéines lui-même (bruit dit « intrinsèque »). Ensuite, parmi les autres aspects « extrinsèques », seule la répartition aléatoire des composés semble avoir potentiellement un effet significatif sur la variance; les autres ne montrent qu'un effet limité sur la concentration des protéines. Ces résultats ont été confrontés à certaines mesures expérimentales, et montrent un décalage encore inexpliqué entre la prédiction théorique et les données biologiques, ce qui appelle à de nouvelles hypothèses quant aux possibles sources de variabilité.En conclusion, les processus étudiés ont permis une meilleure compréhension des phénomènes biologiques en explorant certaines hypothèses difficilement testables expérimentalement. Des modèles étudiés, nous avons pu dégager théoriquement certaines tendances, montrant que la modélisation stochastique est un outil important pour la bonne compréhension des mécanismes d'expression génétique. / The mechanism of protein production, to which is dedicated the majority of resources of the bacteria, is highly stochastic: every biochemical reaction that is involved in this process is due to random collisions between molecules, potentially present in low quantities. The good understanding of gene expression requires therefore to resort to stochastic models that are able to characterise the different origins of protein production variability as well as the biological devices that potentially control it.In this context, we have analysed the variability of a protein produced with a negative autoregulation mechanism: i.e. in the case where the protein is a repressor of its own gene. The goal is to clarify the effect of this feedback on the variance of the number of produced proteins. With the same average protein production, we sought to compare the equilibrium variance of a protein produced with the autoregulation mechanism and the one produced in “open loop”. By studying the model under a scaling regime, we have been able to perform such comparison analytically. It appears that the autoregulation indeed reduces the variance; but it is nonetheless limited: an asymptotic result shows that the variance won't be reduced by more than 50%. The effect on the variance being moderate, we have searched for another possible effect for autoregulation: it havs been observed that the convergence to equilibrium is quicker in the case of a model with autoregulation.Classical models of protein production usually consider a constant volume, without any division or gene replication and with constant concentrations of RNA-polymerases and ribosomes. Yet, it has been suggested in the literature that the variations of these quantities during the cell cycle may participate to protein variability. We propose a series of models of increasing complexity that aims to reach a realistic representation of gene expression. In a model with a changing volume that follows the cell cycle, we integrate successively the protein production mechanism (transcription and translation), the random segregation of compounds at division, and the gene replication. The last model integrates then all the genes of the cell and takes into account their interactions in the productions of different proteins through a common sharing of RNA-polymerases and ribosomes, available in limited quantities. For the models for which it was possible, the mean and the variance of the concentration of each proteins have been analytically determined using the Marked Poisson Point Processes. In the more complex cases, we have estimated the variance using computational simulations. It appears that, among all the studied mechanisms, the main source of variability comes from the protein production mechanism itself (referred as “intrinsic noise”). Then, among the other “extrinsic” aspects, only the random segregation of compounds at division seems to have potentially a significant impact on the variance; the other aspects show only a limited effect on protein concentration. These results have been confronted to some experimental measures, and show a still unexplained decay between the theoretical predictions and the biological data; it instigates the formulations of new hypotheses for other possible sources of variability.To conclude, the processes studied have allowed a better understanding of biological phenomena by exploring some hypotheses that are difficult to test experimentally. In the studied models, we have been able to indicate theoretically some trends; hence showing that the stochastic modelling is an important tool for a good understanding of gene expression mechanisms.
10

Nonlinear acoustic wave propagation in complex media : application to propagation over urban environments

Leissing, Thomas 30 November 2009 (has links) (PDF)
Dans cette recherche, un modèle de propagation d'ondes de choc sur grandes distances sur un environnement urbain est construit et validé. L'approche consiste à utiliser l'Equation Parabolique Nonlinéaire (NPE) comme base. Ce modèle est ensuite étendu afin de prendre en compte d'autres effets relatifs à la propagation du son en milieu extérieur (surfaces non planes, couches poreuses, etc.). La NPE est résolue en utilisant la méthode des différences finies et donne des résultats en accord avec d'autres méthodes numériques. Ce modèle déterministe est ensuite utilisé comme base pour la construction d'un modèle stochastique de propagation sur environnements urbains. La Théorie de l'Information et le Principe du Maximum d'Entropie permettent la construction d'un modèle probabiliste d'incertitudes intégrant la variabilité du système dans la NPE. Des résultats de référence sont obtenus grâce à une méthode exacte et permettent ainsi de valider les développements théoriques et l'approche utilisée

Page generated in 0.0597 seconds