• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 8
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 45
  • 45
  • 45
  • 12
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse quantitative des particules atmosphériques par microscopie électronique à balayage couplée à la spectrométrie d'émission X

Choël, Marie 12 September 2005 (has links) (PDF)
Les aérosols atmosphériques consistent en un mélange hétérogène de particules de différentes natures. La technique MEB-EDS permet de caractériser à la fois morphologiquement et chimiquement la fraction particulaire de l'aérosol à l'échelle de la particule individuelle. Pour rendre l'analyse représentative, un système de pilotage de la platine combiné avec un logiciel d'analyse d'image permet d'examiner en mode automatisé des milliers de particules par échantillon. Le développement de détecteurs X dotés de fenêtres minces, qui limitent l'absorption des éléments de faibles numéros atomiques, permet la détection du carbone, de l'azote et de l'oxygène, éléments très abondants dans les échantillons environnementaux. Pour bénéficier de ce progrès technologique rendant faisable l'analyse qualitative étendue à C, N, O, il convient en premier lieu d'optimiser le choix du substrat de collection des particules, afin que sa contribution spectrale soit différenciable de celle de la particule. A cette fin, une procédure de fabrication de plaquettes de bore a été mise au point. Par ailleurs, la technique MEB-EDS n'est pas standardisée pour l'analyse élémentaire quantitative de particules micrométriques dont le volume est plus petit que le volume d'interaction. Les performances d'un programme de quantification inverse par simulation des trajectoires électroniques au sein des particules par la méthode de Monte Carlo ont été évaluées pour des particules modèles de tailles comprises entre 0,25 et 10 µm. L'ensemble de la procédure analytique a permis d'atteindre des justesses estimées à +/-8,8% d'erreur relative moyenne, C, N et O compris.
12

Simulation de la diffusion de la lumière et des gaz par techniques de Monte Carlo

Blasi, Philippe 19 December 1996 (has links) (PDF)
La synthèse d'images réalistes nécessite la modélisation précise des interactions de la lumière avec la matière (réflexion, réfraction, diffusion) et des échanges d'énergie lumineuse entre les objets de la scène. Cette modélisation, très complexe si l'on ne fait pas d'hypothèses restrictives, peut être efficacement réalisée par simulation de Monte Carlo. Dans le présent travail, nous définissons tout d'abord une méthode complète d'illumination de scène, fondée sur une simulation de Monte Carlo d'un modèle "particulaire" de la lumière. Dans un premier temps, nous développons cette simulation pour les milieux participants. Nous diminuons la variance de la simulation par un calcul exact de l'absorption. Nous étendons ensuite ce travail aux objets surfaciques et proposons une technique de regroupement de photons pour obtenir une efficacité constante à chaque pas de calcul. Dans la deuxième partie de ce travail, nous étudions l'application de cette méthode à la visualisation des champs scalaires tri-dimensionnels, puis l'application de certaines techniques issues de la synthèse d'images (facettisation, de données volumiques, partitionnement spatial, images de distance, ...) à la simulation de la diffusion des gaz, présentant de nombreuses similitudes avec la simulation de la diffusion de la lumière.
13

Etude du speckle de milieux diffusants liquides. Application à la détermination de paramètres biophysiques

Piederriere, Yann 15 December 2003 (has links) (PDF)
Le travail présenté dans ce mémoire se place dans le cadre du développement actuel de l'optique laser pour l'établissement de diagnostics médicaux. Dans ce but, l'étude du champ de speckle peut se révéler être une voie pertinente d'analyse. Le speckle, ou granularité lumineuse, formé par des milieux diffusants éclairés par une source de lumière cohérente, peut potentiellement apporter une quantité importante d'informations sur ces milieux. En effet, lorsque aucun système imageant n'est employé, les caractéristiques du speckle comme la taille des grains, le contraste, la polarisation ou encore la dynamique du speckle, sont fonctions des propriétés de diffusion et de la dynamique du milieu. Après une présentation des aspects statistiques associés au speckle et une description des conditions expérimentales employées, nous avons donc étudié l'effet de la diffusion de milieux liquides sur la taille des grains de speckle ainsi que sur le contraste de speckle. En transmission, cette étude nous a permis de caractériser des échantillons selon la dimension des particules diffusantes. Une étude théorique a permis de voir que l'évolution de la taille des grains en fonction de la diffusion et de la dimension des particules du milieu diffusant peut être prévue par la simulation de profils de diffusion par la méthode de Monte Carlo. Actuellement, beaucoup de recherches sont menées pour déterminer des méthodes de mesures non invasive et in vivo de la glycémie pour les diabétiques. Dans ce contexte, nous avons mesuré l'effet de l'addition de glucose dans un milieu diffusant sur la taille des grains de speckle observés dans une configuration de réflexion diffuse. L'analyse de la dynamique des grains de speckle permet d'accéder au contrôle de l'agitation des particules dans le milieu diffusant. Cet aspect a été appliqué, dans le domaine de l'hématologie, au suivi de réactions de coagulation plasmatique. C'est ainsi que plusieurs échantillons de plasma ont pu être caractérisés selon leur temps et dynamiques de coagulations.
14

Contribution à l'évaluation de la sécurité des systèmes complexes de transport guidé

Beugin, Julie 20 December 2006 (has links) (PDF)
Un système de transport guidé est un système complexe qui intègre de nombreux sous-systèmes en interaction pour garantir un déplacement en toute sécurité. Répartis sur l'ensemble du système en tant que sous-systèmes bord et sol, de tels moyens de sécurité consistent à éviter toute situation à risque pouvant mener à des conséquences graves. La sécurité nécessite d'être évaluée afin de justifier que l'ensemble des moyens mis en œuvre pour maîtriser les risques est suffisant. Cependant en raison de la complexité de ces systèmes, l'évaluation globale de la sécurité apparaît problématique.<br /><br />Ces travaux de recherche se sont consacrés à l'élaboration d'une approche d'évaluation de la sécurité focalisant sur l'ensemble du système et tenant compte des SILs (Safety Integrity Levels). Les niveaux d'intégrité de sécurité sont des exigences introduites par les normes de sécurité fonctionnelle pour fixer des objectifs à atteindre par les fonctions de sécurité selon un référentiel commun. Une quantification des profils de risque tenant compte des dépendances et des SILs de ces fonctions a d'abord été proposée, notamment par l'emploi de techniques de simulation de Monte Carlo biaisée surmontant la faible occurrence des événements de sécurité. Ensuite un exemple de système de transport guidé a été modélisé selon le concept original de situation d'exploitation développé pour considérer les différentes conditions de sécurité dont le contexte opérationnel du système, et permettre de formaliser différents profils de risque. Grâce à une maquette logicielle s'appuyant sur la modélisation précédente, plusieurs simulations du système ont été réalisées et ont mené une évaluation de la sécurité.
15

Testy nezávislosti pro mnohorozměrná data / Tests of independence for multivariate data

Kudlík, Michal January 2016 (has links)
Title: Tests of independence for multivariate data Author: Bc. Michal Kudlík Department: Department of Probability and Mathematical Statistics Supervisor: Ing. Marek Omelka, PhD., Department of Probability and Mathema- tical Statistics Abstract: This thesis is an overview of tests of independence for multidimensi- onal data. The report includes tests on independence of categorical and conti- nuous random variables, tests assuming normal distribution of data, asymptotic nonparametric tests and permutation tests with application of the Monte Carlo method. This thesis shows the suitability of tests with properly chosen real data and checks significance level and compares the strength of the selected tests by simulation study while using appropriate statistical software. Based on the simu- lation study the thesis discusses an appropriateness of the use of different tests for different situations. Keywords: independence, permutation and asymptotic tests of independence, Monte Carlo method, simulation study 1
16

Statistique Bayésienne et Monte-Carlo de Second Ordre pour l'évaluation des risques microbiologiques. Le cas de Listeria monocytogenes dans les produits de IVème gamme

Crépet, Amélie 12 December 2007 (has links) (PDF)
Listeria monocytogenes par sa présence dans les végétaux et sa capacité à se développer à de faibles températures représente un danger pour les consommateurs de salades de IVème gamme. L'objectif de ces travaux est de construire un modèle d'évaluation des risques de listériose par consommation de ce produit. Nous opérons en deux temps : estimation des paramètres d'entrée du modèle par inférence bayésienne puis, à partir des distributions obtenues, simulation de l'exposition et du risque par méthodes de Monte-Carlo de second ordre. Ces techniques permettent de propager séparément la variabilité et l'incertitude le long de la chaîne alimentaire. En particulier, un modèle d'estimation de la distribution de la contamination microbiologique d'un aliment, tenant compte des faibles concentrations est développé. L'effet sur le risque de différents scénarios comme le plafonnement de la croissance de L. monocytogenes ou l'élimination du chlore du procédé industriel est évalué.
17

Évaluation de performance d’architecture de contrôle-commande en réseau dans un contexte incertain d’avant-vente / Performance assessment of Networked Control System (NCS) during uncertain pre-sales context

Ndiaye, Moulaye A.A. 16 March 2017 (has links)
Ce mémoire, réalisé dans le cadre d’une thèse sous convention CIFRE avec la société Schneider-Electric et l’Université de Lorraine à travers le laboratoire du CRAN, porte sur l’évaluation des performances temporelles des architectures de contrôle-commande distribuées sur un réseau de communication. Le besoin industriel s’exprime sous la forme d’un outil d’aide au dimensionnement des architectures en phase d’avant-vente caractérisée par une connaissance partielle de ces dernières. Le problème scientifique sous-jacent est relatif à la génération automatique des modèles servant de support à l’évaluation. En effet, l’évaluation des performances doit être réalisée pour un ensemble important d’architectures, dans un temps court, difficilement compatible avec une construction manuelle des modèles. Notre contribution porte sur la définition formelle, à l’aide de réseaux de Petri colorés et temporisés, d’un modèle « constructeur » d’architectures embarquant des mécanismes de configuration, d’instanciation et de paramétrage. Plusieurs algorithmes sont proposés pour, d’une part, construire automatiquement le modèle d’une architecture donnée, à partir d’une description formelle de sa topologie et d’une librairie de modèles d’équipements de contrôle-commande, et, d’autre part, pour générer les observateurs requis à partir d’une description formelle des performances à évaluer. Ces différents algorithmes ont été implantés dans un outil interfacé, d’une part avec l’outil Schneider de description des architectures, et, d’autre part avec le simulateur de l’outil CPN Tools qui fournit une estimation des performances via des simulations de Monte-Carlo. L’intérêt de cette approche a été illustrée sur la base de quelques architectures types fournies par la société Schneider-Electric / This PhD dissertation, supported by CIFRE convention between the company Schneider-Electric and the University of Lorraine through the CRAN laboratory, deals with the assessment of temporal performances for a networked distributed control system. The industrial need was the development of a quotation and sizing tool of industrial control architecture during pre-sales stage. This stage is characterized by limited information about the process and the customers’ needs. The underlying scientific problematic was the ability to generate automatically models serving as support for the evaluation. In fact, performance assessment is realized for a wide range of architecture during a small amount of time, which is not compliant with a manual definition of the models. Our contribution is mainly based on a formal definition of a “builder” model with Colored and Timed Petri Nets which embeds mechanisms for configuration, instantiation and parameters setting of the architecture models. Several algorithms have been proposed for firstly build automatically the architecture Petri Nets model from a formal description of the topology and from a component model library and, secondly, for generating performance observers. Theses algorithms have been implemented on a tool gathering a user interface developed by Schneider –Electric and the Petri Nets simulator called CPN Tools which provides the performance assessment through Monte-Carlo simulation. The added value of this approach has been illustrated through case studies provided by Schneider-Electric
18

Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnel

Roodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
19

Analyse multi-échelles du transport d'hydrocarbures au sein d'un schiste non-saturé / Molecular Simulation of Shales Organic Matter

Collell, Julien 16 July 2015 (has links)
La production d'hydrocarbures de schistes (shales) connait un regain d'intérêt à la fois scientifique et industriel depuis une quinzaine d’années. Cela représente de par le monde d’énormes ressources et risque de modifier durablement le marché énergétique, comme c'est le cas actuellement aux États Unis. Cependant, la récupération des hydrocarbures reste un enjeu majeur impactant au premier ordre la rentabilité de ces ressources. La majorité des hydrocarbures de shales est contenue dans des nodules micrométriques de matière organique : le kérogène, qui est à la fois la roche mère et le réservoir des fluides pétroliers. L’objectif de cette thèse est d’étudier le comportement du kérogène et de ses hydrocarbures grâce à la simulation moléculaire. Pour cela, nous avons effectué des simulations de Dynamique Moléculaire et de Monte Carlo à l’aide de logiciels existants et de développements internes. La première partie de ce travail a consisté à construire des modèles moléculaires visant à reproduire la matière organique contenue dans les shales (le kérogène et ses fluides). À partir de ces modèles, des structures 3D ont été générées en conditions de réservoirs. La représentativité de ces structures a été validée par des mesures expérimentales sur les propriétés volumiques, mécaniques, de stockage et de transport. Puis, nous avons mené une étude approfondie sur l’adsorption et la diffusion d’hydrocarbures dans la matrice kérogène. Les simulations moléculaires ont été effectuées en vue de fournir des données pseudo-expérimentales ainsi que des données de références pour la modélisation. Concernant les propriétés de stockage, un modèle théorique pour l’adsorption de mélanges de fluides sous-critiques (type gaz à condensats ou huiles légères) et super-critique (type gaz sec) a été proposé et validé sur les données de simulation moléculaires. Concernant les propriétés de transport, les mécanismes régissant les transferts de masses ont été identifiés et un modèle a été proposé pour prédire l’évolution des coefficients de diffusion des hydrocarbures avec la température, la pression et la composition des hydrocarbures. / Hydrocarbons production from shales has been of growing industrial and scientific interest for the last fifteen years. The different kinds of shale resources represent huge quantities around the world and may durably change the energy market, as for example in the US. However, the recovery process remains critical and may drastically impact the profitability of these resources. In shales, the majority of the fluids are contained in micrometered nodules of organic matter : the kerogen, which acts as source rock and as reservoir for the oil and gas. The aim of the PhD thesis is to study the kerogen and the petroleum fluids contained in shales, by molecular simulations. For this purpose, Monte Carlo and Molecular Dynamics simulations with existing molecular simulation softwares and in-house codes have been used. The first part of the work has been dedicated to the construction of molecular models mimicking shales organic matter (kerogen and embedded fluids), based on analytical data. From these models, 3D structures have been generated under typical reservoir conditions. Agreements with available experimental results have been found on volumetric, storage, transport and mechanical properties. Then, we have focused our efforts on the adsorption and diffusion of hydrocarbon mixtures in such materials. Molecular simulations have been performed to provide both pseudo-experimental and reference data. On storage properties, a theoretical model which accounts for multicomponent adsorption of super-critical (dry gas) and sub-critical (condensate gas, light oil) mixtures has been developed and validated. On transport properties, the mechanisms governing hydrocarbon mass transfer have been identified and a model has been proposed which describes the dependence of mixture diffusion coefficients with thermodynamic conditions (composition, pressure and temperature).
20

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.

Page generated in 0.1905 seconds