• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 19
  • 19
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Quantification de radionucléides par approche stochastique globale / Global stochastic approach for radionuclides quantification

Clément, Aloïs 19 December 2017 (has links)
Parmi les techniques de mesure nucléaire non destructives utilisées par les instrumentistes du noyau atomique, la spectrométrie gamma est aujourd’hui une méthode d’identification et de quantification de radionucléides largement employée dans le cadre de la gestion d’objets nucléaires complexes tels que des déchets radioactifs, des fûts de déchets ou des boîtes à gants. Les caractéristiques physico-nucléaires non-reproductibles et variées de ces objets, telles que leurs compositions, la répartition des matériaux, leurs densités et formes géométriques, ou le nombre et la forme de leurs termes sources émetteurs, induisent une inaptitude des méthodes d’étalonnage traditionnel à permettre l’obtention de l’activité d’un matériau nucléaire donné. Cette thèse propose une méthode de quantification de radionucléides multi-émetteurs, limitant, voire supprimant, l’utilisation d’informations dites a priori issues de l’avis d’expert ou du retour d’expériences. Cette méthode utilise entre autres la métamodélisation pour construire une efficacité de détection gamma équivalente de la scène de mesure, le formalisme de résolution de problème inverse par Chaines de Markov Monte-Carlo (MCMC), le tout placé dans un cadre de travail probabiliste bayésien afin d’estimer les densités de probabilités des variables d’intérêt telle qu’une masse de radionucléide. Un protocole de validation expérimentale permet de vérifier la robustesse de la méthode à estimer une masse de 239Pu au sein d’objets similaires à ceux traités en routine par le laboratoire. Les perspectives de la méthode concernent la réduction des temps de calcul, des coûts financiers et humains par limitation de l’approche type expert, et la réduction des incertitudes associées. / Gamma spectrometry is a commonly passive nondestructive assay used to identify and quantify radionuclides present in more or less complex objects such as waste packages, waste drums or glove boxes. Basic methods using empirical calibration with a standard in order to quantify the activity of nuclear materials by determining the absolute calibration efficiency are useless on non-reproducible, complex and single nuclear objects such as waste packages. Package specifications as composition or geometry change from one package to another and involve a high variability of objects. Current quantification process uses numerical modeling of the measured scene with few available data such as geometry or composition. These data are density, material, screen, geometrical shape, matrix composition and source distribution. Some of them are strongly dependent on package data knowledge. The method developed in this thesis suggests combining a global stochastic approach which uses, among others, surrogate models available to simulate the gamma attenuation behaviour, a Bayesian approach which considers conditional probability density functions of problem inputs, and Markov Chains Monte Carlo algorithms (MCMC) which solve inverse problems, with gamma ray emission radionuclide spectrum and outside dimensions of interest objects. The methodology is testing to standard in terms of actinide masses, locations and distributions. Activity uncertainties are taken into account by this adjustment methodology. An experimental protocol is built to validate the quantification method in terms of robustness with the quantification of 239Pu. The perspectives of the method are to save time by improving the nuclear measurement process, to cut back on costs by avoiding as far as possible expert approaches, and to reduce the actinide mass uncertainties by increasing the precision of quantification process.
12

The integration of contextual priors and kinematic information during anticipation in skilled boxers : The role of video analysis

Skoghagen, Lina, Andersson, Lina January 2022 (has links)
The current study examined how repetitive exposure of an opponent’s stroke preferences on video affected the integration of contextual priors and kinematic information during anticipation in skilled boxers. We performed an experimental ingroup-design with a temporal-occlusion video-based anticipation task with repeated measures where 19 male skilled boxers (M = 22.95 age, SD = 4.26) classified as A boxers in Sweden participated in the study. The test represented three different stroke combinations divided into four tests and two exposure videos. Each test included 22 occluded clips divided into two blocks and each block contained six high-probability strokes, three moderate-probability strokes and two low- probability strokes. The participants were informed to answer which stroke they anticipated and how sure they were of their answer after each clip. Retrospective verbal reports were answered regarding what information the participants used to anticipate the strokes in the preceding test. The purpose of the exposure videos was to manipulate the participants’ to-be- anticipated action in favor of the opponent’s stroke preferences both when the opponent acted and did not act accordingly. The result indicated that participants learned kinematic information about the opponent by observing the opponent on video rather than learning about the opponent’s stroke preferences. Future research is needed to fully understand how contextual priors integrate with kinematic information in boxing. / Föreliggande studie undersökte hur repetitiv exponering av en motståndares slagpreferenser på video påverkade integrationen av kontextuell förhandsinformation och kinematisk information under antecipering hos skickliga boxare. Vi utförde en experimentell inomgruppsdesign med en videobaserad temporal-ocklusion anticiperingsuppgift med upprepade mätningar där 19 skickliga manliga boxare (M = 22.95 ålder, SD = 4.26) klassade som A-boxare i Sverige deltog i studien. Testet representerade tre olika slagkombinationer uppdelade i fyra tester och två exponerings videor. Varje test inkluderade 22 ockluderade klipp uppdelade i två block där varje block innehöll sex slag med hög sannolikhet, tre slag med måttlig sannolikhet och två slag med låg sannolikhet. Deltagarna informerades om att svara vilket slag de anteciperade och hur säkra de var på sitt svar efter varje klipp. Retrospektiva verbala rapporter besvarades angående vilken information deltagarna använde för att antecipera slagen i det föregående testen. Syftet med exponerings videorna var att manipulera deltagarnas antecipering till förmån för motståndarens slag preferenser både när motståndaren agerade och inte agerade därefter. Resultatet visade att deltagarna lärde sig kinematisk information om motståndaren genom att observera motståndaren på video snarare än att lära sig om motståndarens slag preferenser. Framtida forskning behövs för att öka förståelsen för hur kontextuell förhandsinformation integreras med kinematisk information i boxning.
13

Matting of Natural Image Sequences using Bayesian Statistics

Karlsson, Fredrik January 2004 (has links)
<p>The problem of separating a non-rectangular foreground image from a background image is a classical problem in image processing and analysis, known as matting or keying. A common example is a film frame where an actor is extracted from the background to later be placed on a different background. Compositing of these objects against a new background is one of the most common operations in the creation of visual effects. When the original background is of non-constant color the matting becomes an under determined problem, for which a unique solution cannot be found. </p><p>This thesis describes a framework for computing mattes from images with backgrounds of non-constant color, using Bayesian statistics. Foreground and background color distributions are modeled as oriented Gaussians and optimal color and opacity values are determined using a maximum a posteriori approach. Together with information from optical flow algorithms, the framework produces mattes for image sequences without needing user input for each frame. </p><p>The approach used in this thesis differs from previous research in a few areas. The optimal order of processing is determined in a different way and sampling of color values is changed to work more efficiently on high-resolution images. Finally a gradient-guided local smoothness constraint can optionally be used to improve results for cases where the normal technique produces poor results.</p>
14

Classification using residual vector quantization

Ali Khan, Syed Irteza 13 January 2014 (has links)
Residual vector quantization (RVQ) is a 1-nearest neighbor (1-NN) type of technique. RVQ is a multi-stage implementation of regular vector quantization. An input is successively quantized to the nearest codevector in each stage codebook. In classification, nearest neighbor techniques are very attractive since these techniques very accurately model the ideal Bayes class boundaries. However, nearest neighbor classification techniques require a large size of representative dataset. Since in such techniques a test input is assigned a class membership after an exhaustive search the entire training set, a reasonably large training set can make the implementation cost of the nearest neighbor classifier unfeasibly costly. Although, the k-d tree structure offers a far more efficient implementation of 1-NN search, however, the cost of storing the data points can become prohibitive, especially in higher dimensionality. RVQ also offers a nice solution to a cost-effective implementation of 1-NN-based classification. Because of the direct-sum structure of the RVQ codebook, the memory and computational of cost 1-NN-based system is greatly reduced. Although, as compared to an equivalent 1-NN system, the multi-stage implementation of the RVQ codebook compromises the accuracy of the class boundaries, yet the classification error has been empirically shown to be within 3% to 4% of the performance of an equivalent 1-NN-based classifier.
15

Matting of Natural Image Sequences using Bayesian Statistics

Karlsson, Fredrik January 2004 (has links)
The problem of separating a non-rectangular foreground image from a background image is a classical problem in image processing and analysis, known as matting or keying. A common example is a film frame where an actor is extracted from the background to later be placed on a different background. Compositing of these objects against a new background is one of the most common operations in the creation of visual effects. When the original background is of non-constant color the matting becomes an under determined problem, for which a unique solution cannot be found. This thesis describes a framework for computing mattes from images with backgrounds of non-constant color, using Bayesian statistics. Foreground and background color distributions are modeled as oriented Gaussians and optimal color and opacity values are determined using a maximum a posteriori approach. Together with information from optical flow algorithms, the framework produces mattes for image sequences without needing user input for each frame. The approach used in this thesis differs from previous research in a few areas. The optimal order of processing is determined in a different way and sampling of color values is changed to work more efficiently on high-resolution images. Finally a gradient-guided local smoothness constraint can optionally be used to improve results for cases where the normal technique produces poor results.
16

Slepá dekonvoluce obrazů kalibračních vzorků z elektronového mikroskopu / Blind Image Deconvolution of Electron Microscopy Images

Schlorová, Hana January 2017 (has links)
V posledních letech se metody slepé dekonvoluce rozšířily do celé řady technických a vědních oborů zejména, když nejsou již limitovány výpočetně. Techniky zpracování signálu založené na slepé dekonvoluci slibují možnosti zlepšení kvality výsledků dosažených zobrazením pomocí elektronového mikroskopu. Hlavním úkolem této práce je formulování problému slepé dekonvoluce obrazů z elektronového mikroskopu a hledání vhodného řešení s jeho následnou implementací a porovnáním s dostupnou funkcí Matlab Image Processing Toolboxu. Úplným cílem je tedy vytvoření algoritmu korigujícícho vady vzniklé v procesu zobrazení v programovém prostředí Matlabu. Navržený přístup je založen na regularizačních technikách slepé dekonvoluce.
17

Modélisation de la toxicocinétique des isomères cis et trans de la perméthrine et de ses métabolites chez le rat et de leur métabolisme sur hépatocytes humains / Toxicokinetic modeling of cis and trans isomers of permethrin and their metabolites in rat and of their metabolism in human hepatocytes

Willemin, Marie-Émilie 21 November 2014 (has links)
Les pyréthrinoïdes sont des insecticides auxquels la population est quotidiennement exposée. Le composé parent est suspecté d’induire des perturbations neuronales et hormonales chez l’homme. Au sein de cette famille, la perméthrine (mélange d’isomère cis et trans) est le composé le plus utilisé dans le traitement des intérieurs de maison. Dans ce travail de thèse, nous proposons de développer un modèle PBPK pour la perméthrine et certains de ses métabolites urinaires, utilisés comme biomarqueurs d’exposition, et d’évaluer les interactions métaboliques des deux isomères. Trois étapes ont été suivies. Une méthode analytique par GC-MS/MS a été développée pour doser simultanément les composés dans les différentes matrices. Un modèle PBPK de la perméthrine chez le rat a été associé à un modèles PBPK réduit du DCCA et empirique du 4’-OH-PBA et du 3-PBA. Les paramètres toxicocinétiques de chaque composé ont été estimés dans un cadre Bayésien à partir d’expériences in vivo menées à la dose orale de 25 mg/kg de cis- ou trans-perméthrine chez le rat. Le modèle PBPK de la perméthrine a été vérifié sur des données de cinétique d’un mélange cis/trans. Le métabolisme hépatique de chaque composé a été quantifié chez l’homme sur des hépatocytes primaires dans des conditions optimales pour l’extrapolation in vitro-in vivo, en incubant les isomères séparément et en mélange. Ce travail de thèse souligne la possibilité d’établir un modèle PBPK générique pour les pyréthrinoïdes. L’absence d’interaction entre les isomères au niveau in vitro et lors de la vérification du modèle PBPK de la perméthrine pourrait simplifier la caractérisation de l’exposition à un mélange de pyréthrinoïdes. / Population is largely exposed to pyrethroids, an insecticide family. The parent compound is suspected to induce neuronal and hormonal modifications in humans. Among this family, permethrin, a mixture of isomers cis/trans, is mainly used in house tratments. In this PhD project, we developed a PBK model of permethrin and some urinary metabolites uses as biomarkers of exposure. The matabolic interactions between the two isomers were also evaluated. A three steps strategy was followed. An analytical method by GC-MS/MS was developed to measure these compounds simultaneously in the different matrices. A PBPK of permethrin in rat was associated to a reduced PBPK model of DCCA and a 2-compartment model of 4'-OH-PBA and 3-PBA. The toxicokinetics parameters of each compound were estimated in a Bayesian framework from in vivo experiments in rats orally dosed with 25 mg/kg of cis- or trans permethrin. The PBPK model of permethrin was validated on the kinetic data of a mixture of permethrin. The hepatic metabolism was quantified in humans in primary hepatocytes in optimal conditions for in vitro-in vivo extrapolation, by incubating the isomers separately and as a mixture. This work underlines that a general PBPK model for Type 2 pyrethroids can be considered for the parent compound The lack of interaction between isomers during in vitro experiments and the validation of the PBPK model of permethrin could simplify the characterization of the exposure to a mixture of pyrethroids.
18

Experimental identification of physical thermal models for demand response and performance evaluation / Identification expérimentale des modèles thermiques physiques pour la commande et la mesure des performances énergétiques

Raillon, Loic 16 May 2018 (has links)
La stratégie de l’Union Européenne pour atteindre les objectifs climatiques, est d’augmenter progressivement la part d’énergies renouvelables dans le mix énergétique et d’utiliser l’énergie plus efficacement de la production à la consommation finale. Cela implique de mesurer les performances énergétiques du bâtiment et des systèmes associés, indépendamment des conditions climatiques et de l’usage, pour fournir des solutions efficaces et adaptées de rénovation. Cela implique également de connaître la demande énergétique pour anticiper la production et le stockage d’énergie (mécanismes de demande et réponse). L’estimation des besoins énergétiques et des performances énergétiques des bâtiments ont un verrou scientifique commun : l’identification expérimentale d’un modèle physique du comportement intrinsèque du bâtiment. Les modèles boîte grise, déterminés d’après des lois physiques et les modèles boîte noire, déterminés heuristiquement, peuvent représenter un même système physique. Des relations entre les paramètres physiques et heuristiques existent si la structure de la boîte noire est choisie de sorte qu’elle corresponde à la structure physique. Pour trouver la meilleure représentation, nous proposons d’utiliser, des simulations de Monte Carlo pour analyser la propagation des erreurs dans les différentes transformations de modèle et, une méthode de priorisation pour classer l’influence des paramètres. Les résultats obtenus indiquent qu’il est préférable d’identifier les paramètres physiques. Néanmoins, les informations physiques, déterminées depuis l’estimation des paramètres, sont fiables si la structure est inversible et si la quantité d’information dans les données est suffisante. Nous montrons comment une structure de modèle identifiable peut être choisie, notamment grâce au profil de vraisemblance. L’identification expérimentale comporte trois phases : la sélection, la calibration et la validation du modèle. Ces trois phases sont détaillées dans le cas d’une expérimentation d’une maison réelle en utilisant une approche fréquentiste et Bayésienne. Plus précisément, nous proposons une méthode efficace de calibration Bayésienne pour estimer la distribution postérieure des paramètres et ainsi réaliser des simulations en tenant compte de toute les incertitudes, ce qui représente un atout pour le contrôle prédictif. Nous avons également étudié les capacités des méthodes séquentielles de Monte Carlo pour estimer simultanément les états et les paramètres d’un système. Une adaptation de la méthode de prédiction d’erreur récursive, dans une stratégie séquentielle de Monte Carlo, est proposée et comparée à une méthode de la littérature. Les méthodes séquentielles peuvent être utilisées pour identifier un premier modèle et fournir des informations sur la structure du modèle sélectionnée pendant que les données sont collectées. Par la suite, le modèle peut être amélioré si besoin, en utilisant le jeu de données et une méthode itérative. / The European Union strategy for achieving the climate targets, is to progressively increase the share of renewable energy in the energy mix and to use the energy more efficiently from production to final consumption. It requires to measure the energy performance of buildings and associated systems, independently of weather conditions and user behavior, to provide efficient and adapted retrofitting solutions. It also requires to known the energy demand to anticipate the energy production and storage (demand response). The estimation of building energy demand and the estimation of energy performance of buildings have a common scientific: the experimental identification of the physical model of the building’s intrinsic behavior. Grey box models, determined from first principles, and black box models, determined heuristically, can describe the same physical process. Relations between the physical and mathematical parameters exist if the black box structure is chosen such that it matches the physical ones. To find the best model representation, we propose to use, Monte Carlo simulations for analyzing the propagation of errors in the different model transformations, and factor prioritization, for ranking the parameters according to their influence. The obtained results show that identifying the parameters on the state-space representation is a better choice. Nonetheless, physical information determined from the estimated parameters, are reliable if the model structure is invertible and the data are informative enough. We show how an identifiable model structure can be chosen, especially thanks to profile likelihood. Experimental identification consists of three phases: model selection, identification and validation. These three phases are detailed on a real house experiment by using a frequentist and Bayesian framework. More specifically, we proposed an efficient Bayesian calibration to estimate the parameter posterior distributions, which allows to simulate by taking all the uncertainties into account, which is suitable for model predictive control. We have also studied the capabilities of sequential Monte Carlo methods for estimating simultaneously the states and parameters. An adaptation of the recursive prediction error method into a sequential Monte Carlo framework, is proposed and compared to a method from the literature. Sequential methods can be used to provide a first model fit and insights on the selected model structure while the data are collected. Afterwards, the first model fit can be refined if necessary, by using iterative methods with the batch of data.
19

Analyse statistique de données fonctionnelles à structures complexes

Adjogou, Adjobo Folly Dzigbodi 05 1900 (has links)
No description available.

Page generated in 0.0724 seconds