• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Cooperative Networks with Channel Uncertainty / Réseaux coopératifs avec incertitude du canal

Behboodi, Arash 13 June 2012 (has links)
Dans cette thèse, les réseaux coopératifs sont étudiés sous cette hypothèse que la source est incertain par rapport le canal en opération. Dans le premier chapitre, des stratégies coopératives sont développées pour les canaux à relais simultanés (SRC) lesquelles se composent d'un ensemble de deux canaux à relais parmi lesquels le canal en opération est choisi. Cela est équivalent au canal de diffusion à relais (BRC). Les bornes sur la région de capacité de BRC général sont dérivées. Les résultats de capacité sont obtenus pour les cas particuliers du canal à relais simultané semi-dégradé et dégradé Gaussien. Dans le deuxième chapitre, le canal à relais composite est considéré où le canal est tiré aléatoirement d'un ensemble de la distribution conditionnelle. Le débit est fixé en dépit du canal actuel et la probabilité d'erreur (EP) asymptotique est caractérisée. Une nouvelle stratégie de codage sélectif (SCS) est introduit permettant aux relais de choisir -selon leur mesurage du canal – la meilleur schéma de codage entre Décoder-et-Transmettre (DF) et Comprimer-et-Transmettre (CF). Les théorèmes de codage de réseau bruit généralisées sont démontrés pour le cas de réseau unicast général où les relais utilisent soit DF soit CF. Dans le troisième chapitre, le spectre asymptotique de EP est introduit en tant que nouvelle mesure de performance pour réseaux composites. Il est démontré que chaque code avec le débit hors de la borne cut-set, abouti à EP égal à un et le spectre asymptotique de EP coïncide avec la probabilité d'outage pour les réseaux satisfaisant la converse forte. / In this thesis, cooperative networks are studied under the assumption that the source is uncertain about the channel in operation. In the first chapter, cooperative strategies are developed for simultaneous relay channels (SRC) which consist of a set of two single relay channels out of which the channel in operation is chosen. This is equivalent to the broadcast relay channel (BRC). Bounds on the capacity region of the general BRC with two helper relays are derived. Capacity results are obtained for specific cases of semi-degraded and degraded Gaussian simultaneous relay channels. In the second chapter, the composite relay channel is considered where the channel is randomly drawn from a set of conditional distributions according to a given distribution. The transmission rate is fixed regardless of the current channel and the asymptotic error probability (EP) is characterized. A novel selective coding strategy (SCS) is introduced which enables relays to select –based on their channel measurement– the best coding scheme between Compress-and-Forward (CF) and Decode-and-Forward (DF). Generalized Noisy Network Coding theorems are shown for the case of unicast general networks where the relays use either DF or CF scheme. In the third chapter, the asymptotic behavior of EP is studied for composite multiterminal networks. The asymptotic spectrum of EP is introduced as a novel performance measure for composite networks. It is shown that every code with rate outside cut-set bound, yields EP equal to one and for the networks satisfying strong converse condition, the asymptotic spectrum of EP coincides with the outage probability.
162

Nouvelle méthodologie générique permettant d’obtenir la probabilité de détection (POD) robuste en service avec couplage expérimental et numérique du contrôle non destructif (CND) / New generic methodology to obtain robust In-Service Probability Of Detection (POD) coupling experimental and numerical simulation of Non-Destructive Test (NDT)

Reseco Bato, Miguel 17 May 2019 (has links)
L’évaluation des performances des procédures de Contrôle Non Destructifs (CND) en aéronautique est une étape clé dans l’établissement du dossier de certification de l’avion. Une telle démonstration de performances est faite à travers l’établissement de probabilités de détection (Probability Of Detection – POD), qui intègrent l’ensemble des facteurs influents et sources d’incertitudes inhérents à la mise en œuvre de la procédure. Ces études, basées sur des estimations statistiques faites sur un ensemble représentatif d’échantillons, reposent sur la réalisation d’un grand nombre d’essais expérimentaux (un minimum de 60 échantillons contenant des défauts de différentes tailles, qui doivent être inspectés par au moins 3 opérateurs [1]), afin de recueillir un échantillon suffisant pour une estimation statistique pertinente. Le coût financier associé est élevé, parfois prohibitif, et correspond majoritairement à la mise en œuvre des maquettes servant aux essais. Des travaux récents [2-5] ont fait émerger une approche de détermination de courbes POD utilisant la simulation des CND, notamment avec le logiciel CIVA. L’approche, dite de propagation d’incertitudes, consiste à : - Définir une configuration nominale d’inspection, - Identifier l’ensemble des paramètres influents susceptibles de varier dans l’application de la procédure, - Caractériser les incertitudes liées à ces paramètres par des lois de probabilités, - Réaliser un grand nombre de simulations par tirage aléatoire des valeurs prises par les paramètres variables selon les lois de probabilités définies. Le résultat de cet ensemble de simulations constitue enfin la base de données utilisée pour l’estimation des POD. Cette approche réduit de façon très importante les coûts d’obtention des POD mais est encore aujourd’hui sujette à discussions sur sa robustesse vis-à-vis des données d’entrée (les lois de probabilité des paramètres incertains) et sur la prise en compte des facteurs humains. L’objectif de cette thèse est de valider cette approche sur des cas d’application AIRBUS et d’en améliorer la robustesse afin de la rendre couramment utilisable au niveau industriel, notamment en la faisant accepter par les autorités de vol (FAA et EASA). Pour ce faire le thésard devra mener des campagnes de validations des codes de simulation des CND, mettre en œuvre la méthodologie décrite plus haut sur les cas d’application AIRBUS, puis proposer et mettre en œuvre des stratégies d’amélioration de la robustesse de la méthode vis-à-vis des données d’entrée et des facteurs liés à l’humain. / The performance assessment of non-destructive testing (NDT) procedures in aeronautics is a key step in the preparation of the aircraft's certification document. Such a demonstration of performance is done through the establishment of Probability of Detection (POD) laws integrating all sources of uncertainty inherent in the implementation of the procedure. These uncertainties are due to human and environmental factors in In-Service maintenance tasks. To establish experimentally these POD curves, it is necessary to have data from a wide range of operator skills, defect types and locations, material types, test protocols, etc. Obtaining these data evidences high costs and significant delays for the aircraft manufacturer. The scope of this thesis is to define a robust methodology of building POD from numerical modeling. The POD robustness is ensured by the integration of the uncertainties through statistical distributions issued from experimental data or engineering judgments. Applications are provided on titanium beta using high frequency eddy currents NDT technique. First, an experimental database will be created from three environments: laboratory, A321 aircraft and A400M aicraft. A representative sample of operators, with different certification levels in NDT technique, will be employed. Multiple inspection scenarios will be carried out to analyze these human and environmental factors. In addition, this study will take into account the impact of using different equipments in the HFEC test. This database is used, subsequently, to build statistical distributions. These distributions are the input data of the simulation models of the inspection. These simulations are implemented with the CIVA software. A POD module, based on the Monte Carlo method, is integrated into this software. This module will be applied to address human and ergonomic influences on POD. Additionally this module will help us to understand in a better way the equipment impact in POD curves. Finally, the POD model will be compared and validated with the experimental results developed.
163

Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures

Gao, Yingzhong 02 May 1996 (has links) (PDF)
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
164

Modeling of Diesel HCCI combustion and its impact on pollutant emissions applied to global engine system simulation / Modélisation de la combustion diesel HCCI et de son impact sur la formation de polluants appliquée à la simulation système

Dulbecco, Alessio 02 February 2010 (has links)
La législation sur les émissions de polluants des Moteurs à Combustion Interne (ICEs) est de plus en plus contraignante et représente un gros défi pour les constructeurs automobiles. De nouvelles stratégies de combustion telles que la Combustion à Allumage par Compression Homogène (HCCI) et l’exploitation de stratégies d’injections multiples sont des voies prometteuses qui permettent de respecter les normes sur les émissions de NOx et de suies, du fait que la combustion a lieu dans un mélange très dilué et par conséquent à basse température. Ces aspects demandent la création d’outils numériques adaptés à ces nouveaux défis. Cette thèse présente le développement d’un nouveau modèle 0D de combustion Diesel HCCI : le dual Combustion Model (dual - CM). Le modèle dual-CM a été basé sur l’approche PCM-FPI utilisée en Mécanique des Fluides Numérique (CFD) 3D, qui permet de prédire les caractéristiques de l’auto-allumage et du dégagement de chaleur de tous les modes de combustion Diesel. Afin d’adapter l’approche PCM-FPI à un formalisme 0D, il est fondamental de décrire précisément le mélange à l’intérieur du cylindre. Par consequent, des modèles d’évaporation du carburant liquide, de formation de la zone de mélange et de variance de la fraction de mélange, qui permettent d’avoir une description détaillée des proprietés thermochimiques locales du mélange y compris pour des configurations adoptant des stratégies d’injections multiples, sont proposés. Dans une première phase, les résultats du modèle ont été comparés aux résultats du modèle 3D. Ensuite, le modèle dual-CM a été validé sur une grande base de données expérimentales; compte tenu du bon accord avec l’expérience et du temps de calcul réduit, l’approche présentée s’est montrée prometteuse pour des applications de type simulation système. Pour conclure, les limites des hypothèses utilisées dans dual-CM ont été investiguées et des perspectives pour les dévélopements futurs ont été proposées. / More and more stringent restrictions concerning the pollutant emissions of Internal Combustion Engines (ICEs) constitute a major challenge for the automotive industry. New combustion strategies such as Homogeneous Charge Compression Ignition (HCCI) and the implementation of complex injection strategies are promising solutions for achieving the imposed emission standards as they permit low NOx and soot emissions, via lean and highly diluted combustions, thus assuring low combustion temperatures. This requires the creation of numerical tools adapted to these new challenges. This Ph.D presents the development of a new 0D Diesel HCCI combustion model : the dual Combustion Model (dual−CM ). The dual-CM is based on the PCM-FPI approach used in 3D CFD, which allows to predict the characteristics of Auto-Ignition and Heat Release for all Diesel combustion modes. In order to adapt the PCM-FPI approach to a 0D formalism, a good description of the in-cylinder mixture is fundamental. Consequently, adapted models for liquid fuel evaporation, mixing zone formation and mixture fraction variance, which allow to have a detailed description of the local thermochemical properties of the mixture even in configurations adopting multiple injection strategies, are proposed. The results of the 0D model are compared in an initial step to the 3D CFD results. Then, the dual-CM is validated against a large experimental database; considering the good agreement with the experiments and low CPU costs, the presented approach is shown to be promising for global engine system simulations. Finally, the limits of the hypotheses made in the dual-CM are investigated and perspectives for future developments are proposed.
165

Segmentation d’images intravasculaires ultrasonores

Roy Cardinal, Marie-Hélène 10 1900 (has links)
L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images. / Intravascular ultrasound (IVUS) is a catheter based medical imaging technique that produces cross-sectional images of blood vessels. These images provide quantitative assessment of the vascular wall, information about the nature of atherosclerotic lesions as well as the plaque shape and size. Over the past few years, this medical imaging modality has become a useful tool in research and clinical applications, particularly in atherosclerotic disease studies. However, IVUS imaging is subject to catheter ring-down artifacts, missing vessel parts due to calcification shadowing or side-branches, heterogeneously looking plaques and ultrasonic speckle from blood. The automated analysis of large IVUS data sets thus represents an important challenge. A three-dimensional segmentation algorithm based on the multiple interface fast-marching method is presented. The segmentation is based on region and contour features of the IVUS images: a new speed fonction for the interface propagation that combines the probability density functions (PDFs) of the vessel wall components and the intensity gradients is proposed. The segmentation is highly automated with the detection of the lumen boundary that is fully automatic. Minimal interactions are necessary with a novel initialization procedure since initial contours of the external vessel wall border are also computed automatically on a limited number of longitudinal images and then proposed to the user for acceptance or correction. The segmentation method was validated with in-vivo IVUS data sets acquired from femoral arteries. This database contained 3 subgroups: pullbacks acquired before balloon angioplasty, after the intervention and at a 1 year follow-up examination. Results were compared with validation contours that were manually traced by different experts in IVUS image analysis. The lumen and external wall boundaries detected with the fast-marching method are in agreement with the experts' manually traced contours with similarly found area measurements and small point-to-point contour differences. In addition, the 3D fast-marching segmentation method dramatically reduced the analysis time compared to manual tracing. Such a valdiation study, with comparison between pre- and post-intervention data, has never been reported in the IVUS segmentation literature. In conclusion, the fast-marching method combining the information on the gray level distributions and intensity gradients of the images is precise and efficient to analyze large IVUS sequences. It is hoped that the fast-marching method will become a widely used tool for the fastidious and difficult task of IVUS image processing.
166

David Hume on probability and the Gambler’s fallacy

Tilli, Michele Orazio 05 1900 (has links)
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité. / This presentation examines the degree of certainty which can be attained in science. The scientific paradigm is composed of two extremes; causality and determinism on one end and probability and indeterminism on the other. By appealing to Hume’s notions of resemblance and contiguity, we can dismiss any claim of objective causality or chance as being ungrounded for lack of an empirical basis. The problem of induction as well as the gambler’s fallacy stem from the same cognitive/heuristic source. Hume describes these mental tendencies in his essays ‘Of Probability’ and ‘Of the Idea of Necessary Connexion’. This will necessitate a discussion of Hume’s notion of probability, as well as other interpretations of probability. While science has glorified and romanticized causality, probability can be understood as being just as consistent. While a probabilistic stance is as non-empirical as a causal stance, it will be remarked that we may benefit from a paradigmatic switch to probabilism.
167

Does Chance hide Necessity? : a reevaluation of the debate ‘determinism - indeterminism’ in the light of quantum mechanics and probability theory

Vervoort, Louis 04 1900 (has links)
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle. / In this thesis the ancient philosophical question whether ‘everything has a cause’ will be examined in the light of quantum mechanics and probability theory. In the physics and philosophy of science communities the orthodox position states that the physical world is indeterministic. On the deepest level of physical reality – the quantum level – things or events would have no causes but happen by chance, by irreducible hazard. Arguably the clearest and most convincing theorem that led to this conclusion is Bell’s theorem. Here the premises of this theorem will be re-evaluated, notably by investigating physical model systems. It will be recalled that other solutions to the theorem than indeterminism exist, some of which are known but neglected, such as ‘superdeterminism’. But it will be argued that also other solutions compatible with determinism exist. One general conclusion will be that the interpretation of Bell’s theorem and quantum mechanics hinges on the philosophical premises from which one starts. For instance, within a worldview à la Spinoza the quantum world may well be seen as deterministic. But it is argued that also much ‘softer’ determinism than Spinoza’s is not excluded by the existing experiments. If that is true the ‘determinism – indeterminism’ is not decided in the laboratory: it remains philosophical and open-ended – contrary to what is often believed. In the second part of the thesis a model for the interpretation of probability will be proposed. A conceptual study of the notion of probability indicates that the hypothesis of determinism is instrumental for understanding what ‘probabilistic systems’ are. It seems that determinism answers certain questions that cannot be answered by indeterminism. Therefore we believe there is room for the conjecture that probability theory cannot not do without a deterministic reality underneath probability – as Laplace claimed. Throughout the thesis the methods of philosophy and physics will be used. Both fields appear to be solidly intertwined here, and to offer a large potential for cross-fertilization – in both directions.
168

Probabilité et temps de fixation à l’aide de processus ancestraux

Elgbeili, Guillaume 11 1900 (has links)
Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement. / The expected time for fixation given its occurrence, and the probability of fixa- tion of a new mutant allele in populations subject to various biological phe- nomena are analyzed using the approach of the ancestral process. First, the paper of Tajima (1990) is analyzed, and the missing or incomplete proofs are fully worked out in this Master thesis in order to familiarize ourselves with calculations of fixation times. Our study of Tajima’s paper helps to show the importance of the fixation time in some biological phenomena. Thereafter, we extend the work of Tajima (1990) by introducing the effect of natural selec- tion in the model. Using a diffusion approximation, the work of Mano (2009) provides an interesting result about the expected time of fixation given its oc- currence. We derived an alternative method that uses an ancestral process that approximates well Mani’s result. Simulations are made to verify the accuracy ofthenewapproach.Finally,onemodelsubjecttogeneconversionisanalyzed, since this phenomenon, in the presence of bias, has a similar effect as selection. We deduce an analytical result for the probability of fixation of a new mutant in the population. Finally, simulations are made to determine the probability of fixation and the time of fixation given its occurrence when rates are too large to be calculated analytically.
169

Quelques contributions sur les méthodes de Monte Carlo

Atchadé, Yves F. January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
170

Caractérisation géométrique et morphométrique 3-D par analyse d'image 2-D de distributions dynamiques de particules convexes anisotropes. Application aux processus de cristallisation. / 3-D geomatrical and morphometrical characterization from 2-D images of dynamic distributions of anisotropic convex particles. Application to crystallization processes.

Presles, Benoît 09 December 2011 (has links)
La cristallisation en solution est un procédé largement utilisé dans l'industrie comme opération de séparation et de purification qui a pour but de produire des solides avec des propriétés spécifiques. Les propriétés concernant la taille et la forme ont un impact considérable sur la qualité finale des produits. Il est donc primordial de pouvoir déterminer la distribution granulométrique (DG) des cristaux en formation. En utilisant une caméra in situ, il est possible de visualiser en temps réel les projections 2D des particules 3D présentes dans la suspension. La projection d'un objet 3D sur un plan 2D entraîne nécessairement une perte d'informations : déterminer sa taille et sa forme à partir de ses projections 2D n’est donc pas aisé. C'est tout l'enjeu de ce travail: caractériser géométriquement et morphométriquement des objets 3D à partir de leurs projections 2D. Tout d'abord, une méthode basée sur le maximum de vraisemblance des fonctions de densité de probabilité de mesures géométriques projetées a été développée pour déterminer la taille d'objets 3D convexes. Ensuite, un descripteur de forme stéréologique basé sur les diagrammes de forme a été proposé. Il permet de caractériser la forme d'un objet 3D convexe indépendamment de sa taille et a notamment été utilisé pour déterminer les facteurs d'anisotropie des objets 3D convexes considérés. Enfin, une combinaison des deux études précédentes a permis d'estimer à la fois la taille et la forme des objets 3D convexes. Cette méthode a été validée grâce à des simulations, comparée à une méthode de la littérature et utilisée pour estimer des DGs d'oxalate d'ammonium qui ont été comparées à d’autres méthodes granulométriques. / Solution crystallization processes are widely used in the process industry as separation and purification operations and are expected to produce solids with desirable properties. The properties concerning the size and the shape are known to have a considerable impact on the final quality of products. Hence, it is of main importance to be able to determine the granulometry of the crystals (CSD) in formation. By using an in situ camera, it is possible to visualize in real time the 2D projections of the 3D particles in the suspension.The projection of a 3D object on a 2D plane necessarily involves a loss of information. Determining the size and the shape of a 3D object from its 2D projections is therefore not easy. This is the main goal of this work: to characterize geometrically and morphometrically 3D objects from their 2D projections. First of all, a method based on the maximum likelihood estimation of the probability density functions of projected geometrical measurements has been developed to estimate the size of 3D convex objects. Then, a stereological shape descriptor based on shape diagrams has been proposed. It enables to characterize the shape of a 3D convex object independently of its size and has notably been used to estimate the value of the anisotropy factors of the 3D convex objects. At last, a combination of the two previous studies has allowed to estimate both the size and the shape of the 3D convex objects. This method has been validated with simulated data, has been compared to a method from the literature and has been used to estimate size distributions of ammonium oxalate particles crystallizing in water that have been compared to other CSD methods.

Page generated in 0.0796 seconds