• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 30
  • 3
  • Tagged with
  • 115
  • 115
  • 115
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Analyse radiative des photobioréacteurs / Radiative analysis of photobioreactors

Dauchet, Jérémi 07 December 2012 (has links)
L'ingénierie de la photosynthèse est une voie prometteuse en vue de produire à la fois des vecteurs énergétiques et des molécules plateformes pour palier la raréfaction des ressources fossiles. Le défi à relever est de taille car il faut réussir à mettre au point des procédés solaires de production de biomasse à constante de temps courte (quelques jours), là où une centaine de millions d'années a été nécessaire à la formation du pétrole. Cet objectif pourrait être atteint en cultivant des micro-organismes photosynthétiques dans des photobioréacteurs dont les performances cinétiques en surface et en volume seraient optimales. Une telle optimisation nécessite avant tout une analyse fine des transferts radiatifs au sein du procédé. L'analyse radiative des photobioréacteurs qui est ici proposée s'ouvre sur la détermination des propriétés d'absorption et de diffusion des suspensions de micro-organismes photosynthétiques, à partir de leurs caractéristiques morphologiques, métaboliques et structurales. Une chaîne de modélisation est construite, mise en oeuvre et validée expérimentalement pour des micro-organismes de formes simples ; à terme, la démarche développée pourra directement être étendue à des formes plus complexes. Puis, l'analyse du transfert radiatif en diffusion multiple est introduite et illustrée par différentes approximations qui apparaissent pertinentes pour une conceptualisation des photobioréacteurs, menant ainsi à la construction d'un intuitif nécessaire à leur optimisation. Enfin, la méthode de Monte Carlo est mise en oeuvre afin de résoudre rigoureusement la diffusion multiple en géométries complexes (géométries qui découlent d'une conception optimisée du procédé) et afin de calculer les performances cinétiques à l'échelle du photobioréacteur. Ce dernier calcul utilise une avancée méthodologique qui permet de traiter facilement le couplage non-linéaire du transfert radiatif à la cinétique locale de la photosynthèse (et qui laisse entrevoir de nombreuses autres applications dans d'autres domaines de la physique du transport). Ces outils de simulation mettent à profit les développements les plus récents autour de la méthode de Monte Carlo, tant sur le plan informatique (grâce à une implémentation dans l'environnement de développement EDStar) que sur le plan algorithmique : formulation intégrale, algorithmes à zéro-variance, calcul de sensibilités (le calcul des sensibilités aux paramètres géométriques est ici abordé d'une manière originale qui permet de simplifier significativement sa mise en oeuvre, pour un ensemble de configurations académiques testées). Les perspectives de ce travail seront d'utiliser les outils d'analyse développés durant cette thèse afin d'alimenter une réflexion sur l'intensification des photobioréacteurs, et d'étendre la démarche proposée à l'étude des systèmes photoréactifs dans leur ensemble. / Photosynthesis engineering is a promising mean to produce both energy carriers and fine chemicals in order to remedy the growing scarcity of fossil fuels. This is a challenging task since it implies to design process for solar biomass production associated with short time constant (few days), while oil formation took hundred million of years. This aim could be achieved by cultivating photosynthetic microorganisms in photobioreactors with optimal surface and volume kinetic performances. Above all, such an optimization necessitate a careful radiative study of the process. A radiative analysis of photobioreactors is here proposed that starts with the determination of the absorption and scattering properties of photosynthetic microorganisms suspensions, from the knowledge their morphological, metabolic and structural features. A model is constructed, implemented and validated for microorganisms with simple shapes ; the extension of this approach for the treatment of complex shapes will eventually be straightforward. Then, multiple scattering radiative transfer analysis is introduced and illustrated through different approximations that are relevant for the conceptualization of photobioreactors, leading to the construction of physical pictures that are necessary for the optimization of the process. Finally, the Monte Carlo method is implemented in order to rigorously solve multiple scattering in complex geometries (geometries that correspond to an optimized design of the process) and in order to calculate the kinetic performances of the reactor. In this trend, we develop a novel methodological development that simplies the treatment of the non-linear coupling between radiative transfer and the local kinetic of photosynthesis. These simulation tools also benefit from the most recent developments in the field of the Monte Carlo method : integral formulation, zero-variance algorithms, sensitivity evaluation (a specific approach for the evaluation of sensitivities to geometrical parameters is here developed and shown to correspond to a simple implementation in the case of a set of academic configurations that are tested). Perspectives of this work will be to take advantage of the developed analysis tools in order to stimulate the reflexion regarding photobioreactor intensification, and to extend the proposed approach to the study of photoreactive systems engineering in general.
92

Méthodes de Monte Carlo stratifiées pour l'intégration numérique et la simulation numériques / Stratified Monte Carlo methods for numerical integration and simulation

Fakhereddine, Rana 26 September 2013 (has links)
Les méthodes de Monte Carlo (MC) sont des méthodes numériques qui utilisent des nombres aléatoires pour résoudre avec des ordinateurs des problèmes des sciences appliquées et des techniques. On estime une quantité par des évaluations répétées utilisant N valeurs et l'erreur de la méthode est approchée par la variance de l'estimateur. Le présent travail analyse des méthodes de réduction de la variance et examine leur efficacité pour l'intégration numérique et la résolution d'équations différentielles et intégrales. Nous présentons d'abord les méthodes MC stratifiées et les méthodes d'échantillonnage par hypercube latin (LHS : Latin Hypercube Sampling). Parmi les méthodes de stratification, nous privilégions la méthode simple (MCS) : l'hypercube unité Is := [0; 1)s est divisé en N sous-cubes d'égale mesure, et un point aléatoire est choisi dans chacun des sous-cubes. Nous analysons la variance de ces méthodes pour le problème de la quadrature numérique. Nous étudions particulièrment le cas de l'estimation de la mesure d'un sous-ensemble de Is. La variance de la méthode MCS peut être majorée par O(1=N1+1=s). Les résultats d'expériences numériques en dimensions 2,3 et 4 montrent que les majorations obtenues sont précises. Nous proposons ensuite une méthode hybride entre MCS et LHS, qui possède les propriétés de ces deux techniques, avec un point aléatoire dans chaque sous-cube et les projections des points sur chacun des axes de coordonnées également réparties de manière régulière : une projection dans chacun des N sousintervalles qui divisent I := [0; 1) uniformément. Cette technique est appelée Stratification Sudoku (SS). Dans le même cadre d'analyse que précédemment, nous montrons que la variance de la méthode SS est majorée par O(1=N1+1=s) ; des expériences numériques en dimensions 2,3 et 4 valident les majorations démontrées. Nous présentons ensuite une approche de la méthode de marche aléatoire utilisant les techniques de réduction de variance précédentes. Nous proposons un algorithme de résolution de l'équation de diffusion, avec un coefficient de diffusion constant ou non-constant en espace. On utilise des particules échantillonnées suivant la distribution initiale, qui effectuent un déplacement gaussien à chaque pas de temps. On ordonne les particules suivant leur position à chaque étape et on remplace les nombres aléatoires qui permettent de calculer les déplacements par les points stratifiés utilisés précédemment. On évalue l'amélioration apportée par cette technique sur des exemples numériques Nous utilisons finalement une approche analogue pour la résolution numérique de l'équation de coagulation, qui modélise l'évolution de la taille de particules pouvant s'agglomérer. Les particules sont d'abord échantillonnées suivant la distribution initiale des tailles. On choisit un pas de temps et, à chaque étape et pour chaque particule, on choisit au hasard un partenaire de coalescence et un nombre aléatoire qui décide de cette coalescence. Si l'on classe les particules suivant leur taille à chaque pas de temps et si l'on remplace les nombres aléatoires par des points stratifiés, on observe une réduction de variance par rapport à l'algorithme MC usuel. / Monte Carlo (MC) methods are numerical methods using random numbers to solve on computers problems from applied sciences and techniques. One estimates a quantity by repeated evaluations using N values ; the error of the method is approximated through the variance of the estimator. In the present work, we analyze variance reduction methods and we test their efficiency for numerical integration and for solving differential or integral equations. First, we present stratified MC methods and Latin Hypercube Sampling (LHS) technique. Among stratification strategies, we focus on the simple approach (MCS) : the unit hypercube Is := [0; 1)s is divided into N subcubes having the same measure, and one random point is chosen in each subcube. We analyze the variance of the method for the problem of numerical quadrature. The case of the evaluation of the measure of a subset of Is is particularly detailed. The variance of the MCS method may be bounded by O(1=N1+1=s). The results of numerical experiments in dimensions 2,3, and 4 show that the upper bounds are tight. We next propose an hybrid method between MCS and LHS, that has properties of both approaches, with one random point in each subcube and such that the projections of the points on each coordinate axis are also evenly distributed : one projection in each of the N subintervals that uniformly divide the unit interval I := [0; 1). We call this technique Sudoku Sampling (SS). Conducting the same analysis as before, we show that the variance of the SS method is bounded by O(1=N1+1=s) ; the order of the bound is validated through the results of numerical experiments in dimensions 2,3, and 4. Next, we present an approach of the random walk method using the variance reduction techniques previously analyzed. We propose an algorithm for solving the diffusion equation with a constant or spatially-varying diffusion coefficient. One uses particles, that are sampled from the initial distribution ; they are subject to a Gaussian move in each time step. The particles are renumbered according to their positions in every step and the random numbers which give the displacements are replaced by the stratified points used above. The improvement brought by this technique is evaluated in numerical experiments. An analogous approach is finally used for numerically solving the coagulation equation ; this equation models the evolution of the sizes of particles that may agglomerate. The particles are first sampled from the initial size distribution. A time step is fixed and, in every step and for each particle, a coalescence partner is chosen and a random number decides if coalescence occurs. If the particles are ordered in every time step by increasing sizes an if the random numbers are replaced by statified points, a variance reduction is observed, when compared to the results of usual MC algorithm.
93

Irreversible Markov chains by the factorized Metropolis filter : algorithms and applications in particle systems and spin models / Chaînes de Markov irréversibles par le filtre factorisé de Metropolis : algorithme et applications dans des systèmes de particules et des modèles de spins

Michel, Manon 17 October 2016 (has links)
Cette thèse porte sur le développement et l'application en physique statistique d'un nouveau paradigme pour les méthodes sans rejet de Monte-Carlo par chaînes de Markov irréversibles, grâce à la mise en œuvre du filtre factorisé de Metropolis et du concept de lifting. Les deux premiers chapitres présentent la méthode de Monte-Carlo et ses différentes applications à des problèmes de physique statistique. Une des principales limites de ces méthodes se rencontre dans le voisinage des transitions de phase, où des phénomènes de ralentissement dynamique entravent fortement la thermalisation des systèmes. Le troisième chapitre présente la nouvelle classe des algorithmes de Metropolis factorisés et irréversibles. Se fondant sur le concept de lifting des chaînes de Markov, le filtre factorisé de Metropolis permet de décomposer un potentiel multidimensionnel en plusieurs autres unidimensionnels. De là, il est possible de définir un algorithme sans rejet de Monte-Carlo par chaînes de Markov irréversibles. Le quatrième chapitre examine les performances de ce nouvel algorithme dans une grande variété de systèmes. Des accélérations du temps de thermalisation sont observées dans des systèmes bidimensionnels de particules molles, des systèmes bidimensionnels de spins XY ferromagnétiques et des systèmes tridimensionnels de verres de spins XY. Finalement, une réduction importante du ralentissement critique est exposée pour un système tridimensionnel de spins Heisenberg ferromagnétiques. / This thesis deals with the development and application in statistical physics of a general framework for irreversible and rejection-free Markov-chain Monte Carlo methods, through the implementation of the factorized Metropolis filter and the lifting concept. The first two chapters present the Markov-chain Monte Carlo method and its different implementations in statistical physics. One of the main limitations of Markov-chain Monte Carlo methods arises around phase transitions, where phenomena of dynamical slowing down greatly impede the thermalization of the system. The third chapter introduces the new class of irreversible factorized Metropolis algorithms. Building on the concept of lifting of Markov chains, the factorized Metropolis filter allows to decompose a multidimensional potential into several unidimensional ones. From there, it is possible to define a rejection-free and completely irreversible Markov-chain Monte Carlo algorithm. The fourth chapter reviews the performance of the irreversible factorized algorithm in a wide variety of systems. Clear accelerations of the thermalization time are observed in bidimensional soft-particle systems, bidimensional ferromagnetic XY spin systems and three-dimensional XY spin glasses. Finally, an important reduction of the critical slowing down is exhibited in three-dimensional ferromagnetic Heisenberg spin systems.
94

Méthodes de Monte-Carlo pour les diffusions discontinues : application à la tomographie par impédance électrique / Monte Carlo methods for discontinuous diffusions : application to electrical impedance tomography

Nguyen, Thi Quynh Giang 19 October 2015 (has links)
Cette thèse porte sur le développement de méthodes de Monte-Carlo pour calculer des représentations Feynman-Kac impliquant des opérateurs sous forme divergence avec un coefficient de diffusion constant par morceaux. Les méthodes proposées sont des variantes de la marche sur les sphères à l'intérieur des zones avec un coefficient de diffusion constant et des techniques de différences finies stochastiques pour traiter les conditions aux interfaces aussi bien que les conditions aux limites de différents types. En combinant ces deux techniques, on obtient des marches aléatoires dont le score calculé le long du chemin fourni un estimateur biaisé de la solution de l'équation aux dérivées partielles considérée. On montre que le biais global de notre algorithme est en général d'ordre deux par rapport au pas de différences finies. Ces méthodes sont ensuite appliquées au problème direct lié à la tomographie par impédance électrique pour la détection de tumeurs. Une technique de réduction de variance est également proposée dans ce cadre. On traite finalement du problème inverse de la détection de tumeurs à partir de mesures de surfaces à l'aide de deux algorithmes stochastiques basés sur une représentation paramétrique de la tumeur ou des tumeurs sous forme d'une ou plusieurs sphères. De nombreux essais numériques sont proposés et montrent des résultats probants dans la localisation des tumeurs. / This thesis deals with the development of Monte-Carlo methods to compute Feynman-Kac representations involving divergence form operators with a piecewise constant diffusion coefficient. The proposed methods are variations around the walk on spheres method inside the regions with a constant diffusion coefficient and stochastic finite differences techniques to treat the interface conditions as well as the different kinds of boundary conditions. By combining these two techniques, we build random walks which score computed along the walk gives us a biased estimator of the solution of the partial differential equation we consider. We prove that the global bias is in general of order two with respect to the finite difference step. These methods are then applied for tumour detection to the forward problem in electrical impedance tomography. A variance reduction technique is also proposed in this case. Finally, we treat the inverse problem of tumours detection from surface measurements using two stochastics algorithms based on a spherical parametric representation of the tumours. Many numerical tests are proposed and show convincing results in the localization of the tumours.
95

Modélisation hybride stochastique-déterministe des incendies de forêts

Billaud, Yann 06 May 2011 (has links)
Les grands incendies de forêts sont responsables de la quasi-totalité de la surface brulée et contribuent, par les émissions de particules et de gaz à effet de serre qu’ils génèrent, au réchauffement climatique. Des observations satellitaires ont mis en évidence un comportement fractal que l’on attribue aux hétérogénéités locales (topographie, végétation, conditions météorologiques) rencontrées par ces feux lors de leur propagation. Le présent travail a été consacré au développement et à la validation d’un modèle hybride de propagation d’incendie, capable de reproduire ce comportement. Ce modèle est une extension du modèle original de réseau de « petit monde » où les phénomènes qui se produisent à l’échelle macroscopique, comme le rayonnement du front de flammes et l’inflammation pilotée de la strate végétale sont traités de façon déterministe. Pour décrire le rayonnement, nous avons utilisé un modèle de flamme solide couplé à une méthode de Monte Carlo. La validation a porté sur des configurations simples, mais aussi plus complexes, comme le rayonnement d’un front hétérogène de flammes ou celui d’une flamme d’éthanol. Un modèle d’inflammation a ensuite été élaboré et appliqué à des litières d’aiguilles de pin. Les paramètres du modèle ont été optimisés par un algorithme génétique, conduisant au meilleur accord avec les résultats expérimentaux, en termes de temps d‘inflammation et de perte de masses. Il a été montré que l’oxydation du résidu charbonneux joue un rôle prépondérant sur l’inflammation à bas flux. Le modèle de propagation de petit monde a été validé sur un brûlage dirigé et sur un feu historique, montrant un bon accord en termes de surface brûlée, de vitesse de propagation, de contours de feu, et de propriétés fractales. On a montré qu’il pouvait être utilisé pour le dimensionnement d’ouvrages de défense, comme les coupures de combustible, ou pour expliquer le comportement atypique du feu dans certaines situations (talweg, ruptures de pente, etc.). Son application a également permis d’optimiser le nombre et l’emplacement d’un réseau de capteurs déployés dans la végétation dans le but de localiser précisément et détecter précocement le départ d’un feu. / Most of the area burned by forest fires is attributable to the few fires that escape initial attack to become large. As a consequence large-scale fires produce a large amount of green-house gases and particles which contribute to the global warming. Heterogeneous conditions of weather, fuel, and topography are generally encountered during the propagation of large fires. This shapes irregular contours and fractal post-fire patterns, as revealed by satellite maps. Among existing wildfire spread models, stochastic models seem to be good candidates for studying the erratic behavior of large fires, due to the above-mentioned heterogeneous conditions. The model we developed is a variant of the so-called small-world network model. Flame radiation and fuel piloted ignition are taken into account in a deterministic way at the macroscopic scale. The radiative interaction domain of a burning cell is determined from Monte Carlo simulation using the solid flame model. Some cases are studied, ranging from relatively simple to more complex geometries like an irregular flame fronts or an ethanol pool fire. Then, a numerical model is developed to investigate the piloted ignition of litters composed of maritime pine needles. A genetic algorithm is used to locate a set of model parameters that provide optimal agreement between the model predictions and the experimental data in terms of ignition time and mass loss. The model results had shown the importance of char surface oxidation for heat fluxes close to the critical flux for ignition. Finally, the small-world network model was used to simulate fire patterns in heterogeneous landscapes. Model validation was achieved to an acceptable degree in terms of contours, burned area and fractal properties, through comparison of results with data from a small controlled bushfire experiment and a historical Mediterranean fire. Therefore, it has been proven to be a powerful tool in the sizing of fortifications as fuel break areas at the wildland urban interface or in the understanding of atypical behavior in particular configurations (talweg, slope breaking, etc.). It has also been used for the optimization of an in-situ sensor network whose purpose is to detect precociously and to locate precisely small fires, preventing them from spreading and burning out of control. Our objective was to determine the minimum number and placement of sensors deployed in the forest.
96

Modélisations et inversions des diagrammes de diffusion particulaire enregistrés par un photodétecteur organique conformable / Size distribution of particle systems analyzed with organic photodetectors

Sentis, Matthias 12 December 2014 (has links)
Dans le cadre d'un consortium entre centres de recherche publics et industriels, ce travail de thèse de doctorat s'est attaché à démontrer l'intérêt des détecteurs photo-organiques (OPS) pour la caractérisation des suspensions et écoulements diphasiques. Les principes de plusieurs granulomètres permettant la caractérisation de ces milieux lorsqu'ils sont confinés dans une cuve cylindrique transparente (configuration standard du Process Analytical Technology) ont été proposés. Pour évaluer et optimiser les performances de ces systèmes, un code de simulation de type Monte-Carlo a été spécifiquement développé. Ce dernier permet de prendre en compte les nombreux paramètres du problème comme le profil du faisceau laser, les différentes surfaces spéculaires composant le montage, la composition du milieu particulaire (concentration, diamètre moyen, écart-type, matériau,...), la forme et la position des OPS. Les propriétés de diffusion des particules sont traitées à l'aide des théories de Lorenz-Mie et de Debye, de même qu'un modèle hydride prenant en compte les contributions géométriques et physiques. Pour les milieux dilués (diffusion simple), l'analyse repose sur l'inversion des diagrammes de diffusion obtenus sur une large plage angulaire ou au voisinage de singularités optiques remarquables (arc-en-ciel, diffusion critique, diffraction). Pour les milieux denses (diffusion multiple), les pistes étudiées reposent sur l'analyse des caractéristiques de la tache de rétrodiffusion. / As part of a consortium between academic and industry, this PhD work investigates the interest and capabilities of organic photo-sensors (OPS) for the optical characterization of suspensions and two-phase flows. The principle of new optical particle sizing instruments is proposed to characterize particle systems confined in a cylinder glass (standard configuration for Process Analytical Technologies). To evaluate and optimize the performance of these systems, a Monte-Carlo model has been specifically developed. This model accounts for the numerous parameters of the system: laser beam profile, mirrors, lenses, sample cell, particle medium properties (concentration, mean & standard deviation, refractive indices), OPS shape and positions, etc. Light scattering by particles is treated either by using Lorenz-Mie theory, Debye, or a hybrid model (that takes into account the geometrical and physical contributions). For diluted media (single scattering), particle size analysis is based on the inversion of scattering diagrams obtained over a wide angular range or near optical singularities (rainbow, critical scattering, diffraction). For dense media (multiple scattering), the solutions foreseen are based on the analysis of the backscattering spotlight characteristics.
97

Approche statistique du rayonnement dans les milieux gazeux hétérogènes : de l’échantillonnage des transitions moléculaires au calcul de grandeurs radiatives / A statistical approach of radiative transfer in heterogeneous and gaseous media : from molecular transitions sampling to the computation of radiative observables

Galtier, Mathieu 05 December 2014 (has links)
L’étude du transfert radiatif dans les gaz (atmosphères planétaires, chambres de combustion, etc.) se heurte à deux principales difficultés : les hétérogénéités et la dépendance spectrale des propriétés radiatives du milieu d’intérêt. Les travaux présentés dans ce manuscrit proposent, au travers d’une approche statistique du rayonnement, une solution à ces deux limites qui ne nécessite aucune approximation de modèle physique ou numérique. Cette approche conduira au développement d’algorithmes de Monte-Carlo considérés à l’heure actuelle comme méthodes de référence dans la communauté du transfert radiatif. La difficulté liée aux hétérogénéités du milieu participant sera traitée par une technique empruntée à d’autres disciplines de la physique du transport : les algorithmes à collisions nulles. Leur application au rayonnement consiste à ajouter arbitrairement aux évènements d’absorption et de diffusion, un troisième type de collision n’ayant aucun effet sur le transport de photons : les collisions nulles. Ainsi, le coefficient d’extinction résultant de ces trois types de collision pourra être assumé comme homogène. Ensuite, il sera montré comment cette même technique lève un second verrou permettant de repenser de façon statistique l’idée de coefficient d’absorption. Cela ouvrira la voie à des algorithmes de Monte-Carlo qui estiment directement une observable radiative à partir de paramètres de transitions répertoriés dans des bases de données spectroscopiques, sans avoir à précalculer rigoureusement le coefficient d’absorption. / Two major challenges are encountered when studying radiative transfer in gases (e.g. combustion chambers or planetary atmospheres): heterogeneity and spectral dependence of radiative properties. The work introduced in this manuscript, addresses this problem through a statistical approach of radiation that requires no model or numerical approximation. This approach leads to the development of Monte-Carlo methods, currently considered as reference solutions in the community of radiative transfer. The difficulty related to heterogeneity is handled by a technique borrowed from other fields of transport physics: null-collision algorithms. Their application to radiation consists in adding to the events of absorption and scattering a third arbitrary type of collision that has no effect on the photon transport. Thus, the extinction coefficient resulting from these three types of collisions can be assumed to be homogeneous. Then, it is shown how this very same technique opens the door to rethinking statistically the concept of absorption coefficient. This leads to Monte-Carlo algorithms that directly estimate radiative observables from transition parameters indexed in molecular spectroscopic databases, without the need of rigorously precomputing absorption coefficients.
98

Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiers

Ghazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
99

Simulation et apprentissage Monte-Carlo de stratégies d'intervention en santé publique

Durand, Audrey 18 April 2018 (has links)
Les décideurs dans un système de santé publique comme celui du Québec ont un besoin grandissant d’outils d’évaluation pour soutenir la prise de décision quant aux interventions à mettre en place. Ce mémoire propose un simulateur générique, optimisé pour les problématiques de santé publique, mais également utilisable dans d’autres domaines. Son architecture logicielle est détaillée ainsi que toutes les caractéristiques qui en font un outil de choix pour les décideurs. On présente également l’optimisation des stratégies d’intervention existantes avec une méthode d’apprentissage par renforcement de type Monte-Carlo. Ceci comprend la proposition d’un nouvel algorithme de sélection d’actions dans un contexte d’apprentissage sur des populations d’individus évoluant en parallèle. On conclut le mémoire par l’application de cette infrastructure à deux problématiques de santé publique : la rétinopathie diabétique, ayant déjà fait l’objet de travaux par d’autres chercheurs, et l’ostéoporose, une application d’actualité dont la modélisation et les résultats ont été validés par des spécialistes en santé. / Decision makers in public health system, such as the one in the province of Quebec, have a growing need for assessment tools to support their decisions on the interventions to implement. This master’s thesis proposes a generic simulator optimized for public health issues, while being extensible to other areas. It details the software architecture and all the features that make it a tool of choice for decision makers. It also presents the optimization of existing intervention strategies using Monte Carlo reinforcement learning. This includes the proposal of a new algorithm for selecting actions when learning on populations of individuals evolving in parallel. We conclude with the application of this infrastructure to two public health issues : diabetic retinopathy, that has already been the subject of work by other researchers, and osteoporosis, a current application that has been validated by health care specialists.
100

Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos

Hosseinizadeh, Ahmad 17 April 2018 (has links)
Cette thèse est organisé en deux parties. Dans la première partie nous nous adressons à un problème vieux dans la théorie de jauge - le calcul du spectre et des fonctions d'onde. La stratégie que nous proposons est de construire une base d'états stochastiques de liens de Bargmann, construite à partir d'une distribution physique de densité de probabilité. Par la suite, nous calculons les amplitudes de transition entre ces états par une approche analytique, en utilisant des intégrales de chemin standards ainsi que la théorie des groupes. Également, nous calculons numériquement matrices symétrique et hermitienne des amplitudes de transition, via une méthode Monte Carlo avec échantillonnage pondéré. De chaque matrice, nous trouvons les valeurs propres et les vecteurs propres. En appliquant cette méthode â la théorie de jauge U(l) en deux dimensions spatiales, nous essayons d'extraire et de présenter le spectre et les fonctions d'onde de cette théorie pour des grilles de petite taille. En outre, nous essayons de faire quelques ajustement dynamique des fenêtres de spectres d'énergie et les fonctions d'onde. Ces fenêtres sont outiles de vérifier visuellement la validité de l'hamiltonien Monte Carlo, et de calculer observables physiques. Dans la deuxième partie nous étudions le comportement chaotique de deux systèmes de billard classiques, par la théorie des matrices aléatoires. Nous considérons un gaz périodique de Lorentz à deux dimensions dans des régimes de horizon fini et horizon infini. Nous construisons quelques matrices de longueurs de trajectoires de un particule mobile dans ce système, et réalisons des études des spectres de ces matrices par l'analyse numérique. Par le calcul numérique des distributions d'espacement de niveaux et rigidité spectral, nous constatons la statistique des espacements de niveaux suggère un comportement universel. Nous étudions également un tel comportement pour un système optique chaotique. En tant que quasi-système de potentiel, ses fluctuations dans l'espacement de ses niveaux suivent aussi un comportement GOE, ce qui est une signature d'universalité. Dans cette partie nous étudions également les propriétés de diffusion du gaz de Lorentz, par la longueur des trajectoires. En calculant la variance de ce quantité, nous montrons que dans le cas d'horizons finis, la variance de longueurs est linéaire par rapport au nombre de collisions de la particule dans le billard. Cette linéarité permet de définir un coefficient de diffusion pour le gaz de Lorentz, et dans un schéma général, elle est compatible avec les résultats obtenus par d'autres méthodes.

Page generated in 0.0632 seconds