• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 629
  • 267
  • 111
  • 73
  • 43
  • 43
  • 35
  • 22
  • 17
  • 11
  • 8
  • 7
  • 5
  • 5
  • 5
  • Tagged with
  • 1431
  • 530
  • 171
  • 161
  • 157
  • 147
  • 114
  • 104
  • 104
  • 100
  • 100
  • 97
  • 95
  • 94
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Simulação de dados visando à estimação de componentes de variância e coeficientes de herdabilidade / Simulation of data aiming at the estimation of variance components and heritability

Coelho, Angela Mello 03 February 2006 (has links)
A meta principal desse trabalho foi comparar métodos de estimação para coeficientes de herdabilidade para os modelos inteiramente ao acaso e em blocos casualizados. Para os dois casos foram utilizadas as definições de coeficiente de herdabilidade (h2) no sentido restrito, dadas respectivamente, por h2=4 σ2t/(σ2+σ2t) e h2=4 σ2t/(σ2+σ2t+σ2b). . Portanto, é preciso estimar os componentes de variância relativos ao erro experimental (σ2) e ao efeito de tratamentos (σ2t) quando se deseja estimar h2 para o modelo inteiramente ao acaso. Para o modelo para blocos casualizados, além de estimar os últimos dois componentes, é necessário estimar o componente de variância relativo ao efeito de blocos (σ2b). Para atingir a meta estabelecida, partiu-se de um conjunto de dados cujo coeficiente de herdabilidade é conhecido, o que foi feito através da simulação de dados. Foram comparados dois métodos de estimação, o método da análise da variância e método da máxima verossimilhança. Foram feitas 80 simulações, 40 para cada ensaio. Para os dois modelos, as 40 simulações foram divididas em 4 casos contendo 10 simulações. Cada caso considerou um valor distinto para h2, esses foram: h2=0,10; 0,20; 0,30 e 0,40; para cada um desses casos foram fixados 10 valores distintos para o σ2, a saber: σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100. Os valores relativos ao σ2 foram encontrados através da equação dada para os coeficientes de herdabilidade, sendo que, para o modelo em blocos casualizados, foi fixado σ2b=20 para todas os 40 casos. Após realizadas as 80 simulações, cada uma obtendo 1000 conjunto de dados, e por conseqüência 1000 estimativas para cada componente de variância e coeficiente de herdabilidade relativos a cada um dos casos, foram obtidas estatísticas descritivas e histogramas de cada conjunto de 1000 estimativas. A comparação dos métodos foi feita através da comparação dessas estatísticas descritivas e histogramas, tendo como referência os valores dos parâmetros utilizados nas simulações. Para ambos os modelos observou-se que os dois métodos se aproximam quanto a estimação de σ2. Para o delineamento inteiramente casualizado, o método da máxima verossimilhança forneceu estimativas que, em média, subestimaram os valores de σ2t, e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Para o modelo em blocos casualizados, ambos os métodos se assemelham, também, quanto à estimação de σ2t, porém o método da máxima verossimilhança fornece estimativas que tendem a subestimar o σ2b, e e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Logo, o método da análise da variância se mostrou mais confiável quando se objetiva estimar componentes de variância e coeficientes de herdabilidade para ambos os modelos considerados. / The main aim of this work was to compare methods of estimation of heritability for the 1- way classification and the 2-way crossed classification without interaction. For both cases the definition of heritability (h2) in the narrow sense was used, given respectively, by h2=4σ2t/(σ2+σ2t) e h2=4σ2t/(σ2+σ2t+σ2b). Therefore, there is a need to estimate the components of variance related to the residual (σ2) and the effect of treatments (σ2t) in order to estimate (h2) for the 1-way classification. For the 2-way classification without interaction, there is a need to estimate the component of variance related to the effect of blocks (σ2b) as well as the other two components. To achieve the established aim, a data set with known heritability was used, produced by simulation. Two methods of estimation were compared: the analysis of variance method and the maximum likelihood method. 80 simulations were made, 40 for each classification. For both models, the 40 simulations were divided into 4 different groups containing 10 simulations. Each group considered a different value for h2 (h2=0,10; 0,20; 0,30 e 0,40) and for each one of those cases there were 10 different values fixed for) σ2 (σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100). The values for σ2t were found using the equations for the heritability, and for the 2-way crossed classification without interaction, σ2b=20 for all the 40 cases. After the 80 simulations were done, each one obtaining 1000 data sets, and therefore 1000 estimates of each component of variance and the heritability, descriptive statistics and histograms were obtained for each set of 1000 estimates. The comparison of the methods was made based on the descriptive statistics and histograms, using as references the values of the parameters used in the simulations. For both models, the estimates of σ2 were close to the true values. For the 1-way classification, the maximum likelihood method gave estimates that, on average, underestimated the values of σ2t, and therefore the values of h2. This did not happen with the analysis of variance method. For the 2-way crossed classification without interaction, both methods gave similar estimates of σ2t, although the maximum likelihood method gave estimates that tended to underestimate σ2b and therefore to overestimate h2. This did not happen with the analysis of variance method. Hence, the analysis of variance method proved to be more accurate for the estimation of variance components and heritability for both classifications considered in this work.
262

Amélioration des mesures anthroporadiamétriques personnalisées assistées par calcul Monte Carlo : optimisation des temps de calculs et méthodologie de mesure pour l’établissement de la répartition d’activité / Optimizing the in vivo monitoring of female workers using in vivo measurements and Monte Carlo calculations : method for the management of complex contaminations

Farah, Jad 06 October 2011 (has links)
Afin d’optimiser la surveillance des travailleuses du nucléaire par anthroporadiamétrie, il est nécessaire de corriger les coefficients d’étalonnage obtenus à l’aide du fantôme physique masculin Livermore. Pour ce faire, des étalonnages numériques basés sur l’utilisation des calculs Monte Carlo associés à des fantômes numériques ont été utilisés. De tels étalonnages nécessitent d’une part le développement de fantômes représentatifs des tailles et des morphologies les plus communes et d’autre part des simulations Monte Carlo rapides et fiables. Une bibliothèque de fantômes thoraciques féminins a ainsi été développée en ajustant la masse des organes internes et de la poitrine suivant la taille et les recommandations de la chirurgie plastique. Par la suite, la bibliothèque a été utilisée pour étalonner le système de comptage du Secteur d’Analyses Médicales d’AREVA NC La Hague. De plus, une équation décrivant la variation de l’efficacité de comptage en fonction de l’énergie et de la morphologie a été développée. Enfin, des recommandations ont été données pour corriger les coefficients d’étalonnage du personnel féminin en fonction de la taille et de la poitrine. Enfin, pour accélérer les simulations, des méthodes de réduction de variance ainsi que des opérations de simplification de la géométrie ont été considérées.Par ailleurs, pour l’étude des cas de contamination complexes, il est proposé de remonter à la cartographie d’activité en associant aux mesures anthroporadiamétriques le calcul Monte Carlo. La méthode développée consiste à réaliser plusieurs mesures spectrométriques avec différents positionnements des détecteurs. Ensuite, il s’agit de séparer la contribution de chaque organe contaminé au comptage grâce au calcul Monte Carlo. L’ensemble des mesures réalisées au LEDI, au CIEMAT et au KIT ont démontré l’intérêt de cette méthode et l’apport des simulations Monte Carlo pour une analyse plus précise des mesures in vivo, permettant ainsi de déterminer la répartition de l’activité à la suite d’une contamination interne. / To optimize the monitoring of female workers using in vivo spectrometry measurements, it is necessary to correct the typical calibration coefficients obtained with the Livermore male physical phantom. To do so, numerical calibrations based on the use of Monte Carlo simulations combined with anthropomorphic 3D phantoms were used. Such computational calibrations require on the one hand the development of representative female phantoms of different size and morphologies and on the other hand rapid and reliable Monte Carlo calculations. A library of female torso models was hence developed by fitting the weight of internal organs and breasts according to the body height and to relevant plastic surgery recommendations. This library was next used to realize a numerical calibration of the AREVA NC La Hague in vivo counting installation. Moreover, the morphology-induced counting efficiency variations with energy were put into equation and recommendations were given to correct the typical calibration coefficients for any monitored female worker as a function of body height and breast size. Meanwhile, variance reduction techniques and geometry simplification operations were considered to accelerate simulations.Furthermore, to determine the activity mapping in the case of complex contaminations, a method that combines Monte Carlo simulations with in vivo measurements was developed. This method consists of realizing several spectrometry measurements with different detector positioning. Next, the contribution of each contaminated organ to the count is assessed from Monte Carlo calculations. The in vivo measurements realized at LEDI, CIEMAT and KIT have demonstrated the effectiveness of the method and highlighted the valuable contribution of Monte Carlo simulations for a more detailed analysis of spectrometry measurements. Thus, a more precise estimate of the activity distribution is given in the case of an internal contamination.
263

Application de la validation de données dynamiques au suivi de performance d'un procédé

Ullrich, Christophe 17 October 2010 (has links)
La qualité des mesures permettant de suivre l'évolution de procédés chimiques ou pétrochimiques peut affecter de manière significative leur conduite. Malheureusement, toute mesure est entachée d'erreur. Les erreurs présentes dans les données mesurées peuvent mener à des dérives significatives dans la conduite du procédé, ce qui peut avoir des effets néfastes sur la sécurité du procédé ou son rendement. La validation de données est une tâche très importante car elle transforme l'ensemble des données disponibles en un jeu cohérent de valeurs définissant l'état du procédé. La validation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. À l'échelle industrielle, elle est régulièrement appliquée à des procédés fonctionnant en continu, représentés par des modèles stationnaires. Cependant, pour le suivi de phénomènes transitoires, les algorithmes de validation stationnaires ne sont plus efficaces. L'étude abordée dans le cadre de cette thèse est l'application de la validation de données dynamiques au suivi des performances des procédés chimiques. L'algorithme de validation de données dynamiques développé dans le cadre de cette thèse, est basé sur une résolution simultanée du problème d'optimisation et des équations du modèle. Les équations différentielles sont discrétisées par une méthode des résidus pondérés : les collocations orthogonales. L'utilisation de la méthode des fenêtres de temps mobiles permet de conserver un problème de dimension raisonnable. L'algorithme d'optimisation utilisé est un algorithme "Successive Quadratic Programming" à point intérieur. L'algorithme de validation de données dynamiques développé a permis la réduction de l'incertitude des estimées. Les exemples étudiés sont présentés du plus simple au plus complexe. Les premiers modèles étudiés sont des cuves de stockages interconnectées. Ce type de modèle est composé uniquement de bilans de matière. Les modèles des exemples suivants, des réacteurs chimiques, sont composés des bilans de matière et de chaleur. Le dernier modèle étudié est un ballon de séparation liquide vapeur. Ce dernier est composé de bilans de matière et de chaleur couplés à des phénomènes d'équilibre liquide-vapeur. L'évaluation de la matrice de sensibilité et du calcul des variances a posteriori a été étendue aux procédés représentés par des modèles dynamiques. Son application a été illustrée par plusieurs exemples. La modification des paramètres de fenêtre de validation influence la redondance dans celle-ci et donc le facteur de réduction de variances a posteriori. Les développements proposés dans ce travail offrent donc un critère rationnel de choix de la taille de fenêtre pour les applications de validation de données dynamiques. L'intégration d'estimateurs alternatifs dans l'algorithme permet d'en augmenter la robustesse. En effet, ces derniers permettent l'obtention d'estimées non-biaisées en présence d'erreurs grossières dans les mesures. Organisation de la thèse : La thèse débute par un chapitre introductif présentant le problème, les objectifs de la recherche ainsi que le plan du travail. La première partie de la thèse est consacrée à l'état de l'art et au développement théorique d'une méthode de validation de données dynamiques. Elle est organisée de la manière suivante : -Le premier chapitre est consacré à la validation de données stationnaires. Il débute en montrant le rôle joué par la validation de données dans le contrôle des procédés. Les différents types d'erreurs de mesure et de redondances sont ensuite présentés. Différentes méthodes de résolution de problèmes stationnaires linéaires et non linéaires sont également explicitées. Ce premier chapitre se termine par la description d'une méthode de calcul des variances a posteriori. -Dans le deuxième chapitre, deux catégories des méthodes de validation de données dynamiques sont présentées : les méthodes de filtrage et les méthodes de programmation non-linéaire. Pour chaque type de méthode, les principales formulations trouvées dans la littérature sont exposées avec leurs principaux avantages et inconvénients. -Le troisième chapitre est consacré au développement théorique de l'algorithme de validation de données dynamiques mis au point dans le cadre de cette thèse. Les différents choix stratégiques effectués y sont également présentés. L'algorithme choisi se base sur une formulation du problème d'optimisation comprenant un système d'équations algébro-différentielles. Les équations différentielles sont discrétisées au moyen d'une méthode de collocations orthogonales utilisant les polynômes d'interpolation de Lagrange. Différentes méthodes de représentation des variables d'entrée sont discutées. Afin de réduire les coûts de calcul et de garder un problème d'optimisation résoluble, la méthode des fenêtres de temps mobiles est utilisée. Un algorithme "Interior Point Sucessive Quadratic Programming" est utilisé afin de résoudre de manière simultanée les équations différentielles discrétisées et les équations du modèle. Les dérivées analytiques du gradient de la fonction objectif et du Jacobien des contraintes sont également présentées dans ce chapitre. Pour terminer, un critère de qualité permettant de comparer les différentes variantes de l'algorithme est proposé. -Cette première partie se termine par le développement d'un algorithme original de calcul des variances a posteriori. La méthode développée dans ce chapitre est similaire à la méthode décrite dans le premier chapitre pour les procédés fonctionnant de manière stationnaire. Le développement est réalisé pour les deux représentations des variables d'entrée discutées au chapitre 3. Pour terminer le chapitre, cette méthode de calcul des variances a posteriori est appliquée de manière théorique sur un petit exemple constitué d'une seule équation différentielle et d'une seule équation de liaison. La seconde partie de la thèse est consacrée à l'application de l'algorithme de validation de données dynamiques développé dans la première partie à l'étude de plusieurs cas. Pour chacun des exemples traités, l'influence des paramètres de l'algorithme sur la robustesse, la facilité de convergence et la réduction de l'incertitude des estimées est examinée. La capacité de l'algorithme à réduire l'incertitude des estimées est évaluée au moyen du taux de réduction d'erreur et du facteur de réduction des variances. -Le premier chapitre de cette deuxième partie est consacré à l'étude d'une ou plusieurs cuves de stockage à niveau variable, avec ou sans recyclage de fluide. Ce premier cas comporte uniquement des bilans de matière. - Le chapitre 6 examine le cas d'un réacteur à cuve agitée avec échange de chaleur. L'exemple traité dans ce chapitre est donc constitué de bilans de matière et d'énergie. -L'étude d'un ballon flash au chapitre 7 permet de prendre en compte les équilibres liquide-vapeur. - Le chapitre 8 est consacré aux estimateurs robustes dont la performance est comparée pour les exemples étudiés aux chapitres 5 et 6. La thèse se termine par un chapitre consacré à la présentation des conclusions et de quelques perspectives futures.
264

Mixture Modeling and Outlier Detection in Microarray Data Analysis

George, Nysia I. 16 January 2010 (has links)
Microarray technology has become a dynamic tool in gene expression analysis because it allows for the simultaneous measurement of thousands of gene expressions. Uniqueness in experimental units and microarray data platforms, coupled with how gene expressions are obtained, make the field open for interesting research questions. In this dissertation, we present our investigations of two independent studies related to microarray data analysis. First, we study a recent platform in biology and bioinformatics that compares the quality of genetic information from exfoliated colonocytes in fecal matter with genetic material from mucosa cells within the colon. Using the intraclass correlation coe�cient (ICC) as a measure of reproducibility, we assess the reliability of density estimation obtained from preliminary analysis of fecal and mucosa data sets. Numerical findings clearly show that the distribution is comprised of two components. For measurements between 0 and 1, it is natural to assume that the data points are from a beta-mixture distribution. We explore whether ICC values should be modeled with a beta mixture or transformed first and fit with a normal mixture. We find that the use of mixture of normals in the inverse-probit transformed scale is less sensitive toward model mis-specification; otherwise a biased conclusion could be reached. By using the normal mixture approach to compare the ICC distributions of fecal and mucosa samples, we observe the quality of reproducible genes in fecal array data to be comparable with that in mucosa arrays. For microarray data, within-gene variance estimation is often challenging due to the high frequency of low replication studies. Several methodologies have been developed to strengthen variance terms by borrowing information across genes. However, even with such accommodations, variance may be initiated by the presence of outliers. For our second study, we propose a robust modification of optimal shrinkage variance estimation to improve outlier detection. In order to increase power, we suggest grouping standardized data so that information shared across genes is similar in distribution. Simulation studies and analysis of real colon cancer microarray data reveal that our methodology provides a technique which is insensitive to outliers, free of distributional assumptions, effective for small sample size, and data adaptive.
265

Modélisation de la courbe de variance et modèles à volatilité stochastique

Ould Aly, Sidi Mohamed 16 June 2011 (has links) (PDF)
La première partie de cette thèse est consacrée aux problématiques liées à la modélisation markovienne de la courbe de variance forward. Elle est divisée en 3 chapitres. Dans le premier chapitre, nous présentons le cadre général de la modélisation de type HJM-Markov pour la courbe de variance forward. Nous revisitons le cadre affine-markovien modélisation et nous l'illustrons par l'exemple du modèle de Bühler. Dans le deuxième chapitre, nous proposons un nouveau modèle pour la courbe de variance forward qui combine les caractéristiques des deux versions (continue et discrète) du modèle de Bergomi 2008, sans se réduire ni à l'une ni à l'autre. Un des avantages de ce modèle est que les prix des futures et options sur VIX peuvent être exprimés comme des espérances de fonctions déterministes d'une variable aléatoire gaussienne, ce qui réduit le problème de la calibration à l'inversion de certaines fonctions monotones. Dans le troisième chapitre, on propose une méthode d'approximation pour les prix d'options européennes dans des modèles à volatilité stochastique de type multi-factoriels lognormal (comprenant le modèle présenté dans le deuxième chapitre, les modèles de Bergomi et le modèle de Scot 1987). Nous obtenons un développement d'ordre 3 de la densité du sous-jacent par rapport au paramètre de la volatilité de la volatilité. Nous présentons aussi une méthode de réduction de variance de type "variable de contrôle" pour la simulation par la méthode de Monte-Carlo qui utilise l'approximation explicite que nous obtenons de la fonction de répartition de la loi du sous-jacent. La deuxième partie de cette thèse est consacrée à l'étude des propriétés de monotonie des prix d'options européennes par rapport aux paramètres du CIR dans le modèle de Heston. Elle est divisée en deux chapitres. Dans le premier chapitre (cf. chapitre 4), nous donnons quelques résultats généraux sur le processus CIR. Nous montrons d'abord que les queues de distribution d'une combinaison du CIR et de sa moyenne arithmétique se comportent comme des exponentielles. Nous étudions ensuite les dérivées de la solution de ce processus par rapport aux paramètres de sa dynamique. Ces dérivées sont données comme solutions d'équations différentielles stochastiques, qu'on résout pour obtenir des représentations de ces dérivées en fonction des trajectoires du CIR. Le chapitre 5 est consacré à l'étude de la monotonie du prix d'un Put européen par rapport aux paramètres du CIR et à la corrélation dans le modèle de Heston. Nous montrons que, sous certaines conditions, les prix d'options européennes sont monotones par rapport aux paramètres du drift du CIR. Nous montrons ensuite que le paramètre de la volatilité de la volatilité joue le rôle de la volatilité si on prend la variance réalisée comme sous-jacent. En particulier, les prix d'options convexes sur la variance réalisée sont strictement croissants par rapport à la volatilité de la volatilité. Enfin, nous étudions la monotonie du prix du Put européen par rapport à la corrélation. Nous montrons que le prix du put du Put est croissant par rapport à la corrélation pour les petites valeurs du Spot et décroissant pour les grandes valeurs. Nous étudions ensuite les points de changement de monotonie pour les courtes et longues maturités
266

Estimation de l’écart type du délai de bout-en-bout par méthodes passives / Passive measurement in Software Defined Networks

Nguyen, Huu-Nghi 09 March 2017 (has links)
Depuis l'avènement du réseau Internet, le volume de données échangées sur les réseaux a crû de manière exponentielle. Le matériel présent sur les réseaux est devenu très hétérogène, dû entre autres à la multiplication des "middleboxes" (parefeux, routeurs NAT, serveurs VPN, proxy, etc.). Les algorithmes exécutés sur les équipements réseaux (routage, “spanning tree”, etc.) sont souvent complexes, parfois fermés et propriétaires et les interfaces de supervision peuvent être très différentes d'un constructeur/équipement à un autre. Ces différents facteurs rendent la compréhension et le fonctionnement du réseau complexe. Cela a motivé la définition d'un nouveau paradigme réseaux afin de simplifier la conception et la gestion des réseaux : le SDN (“Software-defined Networking”). Il introduit la notion de contrôleur, qui est un équipement qui a pour rôle de contrôler les équipements du plan de données. Le concept SDN sépare donc le plan de données chargés de l'acheminement des paquets, qui est opéré par des équipements nommés virtual switches dans la terminologie SDN, et le plan contrôle, en charge de toutes les décisions, et qui est donc effectué par le contrôleur SDN. Pour permettre au contrôleur de prendre ses décisions, il doit disposer d'une vue globale du réseau. En plus de la topologie et de la capacité des liens, des critères de performances comme le délai, le taux de pertes, la bande passante disponible, peuvent être pris en compte. Cette connaissance peut permettre par exemple un routage multi-classes, ou/et garantir des niveaux de qualité de service. Les contributions de cette thèse portent sur la proposition d'algorithmes permettant à une entité centralisée, et en particulier à un contrôleur dans un cadre SDN, d'obtenir des estimations fiables du délai de bout-en-bout pour les flux traversant le réseau. Les méthodes proposées sont passives, c'est-à-dire qu'elles ne génèrent aucun trafic supplémentaire. Nous nous intéressons tout particulièrement à la moyenne et l'écart type du délai. Il apparaît que le premier moment peut être obtenu assez facilement. Au contraire, la corrélation qui apparaît dans les temps d'attentes des noeuds du réseau rend l'estimation de l'écart type beaucoup plus complexe. Nous montrons que les méthodes développées sont capables de capturer les corrélations des délais dans les différents noeuds et d'offrir des estimations précises de l'écart type. Ces résultats sont validés par simulations où nous considérons un large éventail de scénarios permettant de valider nos algorithmes dans différents contextes d'utilisation / Since the early beginning of Internet, the amount of data exchanged over the networks has exponentially grown. The devices deployed on the networks are very heterogeneous, because of the growing presence of middleboxes (e.g., firewalls, NAT routers, VPN servers, proxy). The algorithms run on the networking devices (e.g., routing, spanning tree) are often complex, closed, and proprietary while the interfaces to access these devices typically vary from one manufacturer to the other. All these factors tend to hinder the understanding and the management of networks. Therefore a new paradigm has been introduced to ease the design and the management of networks, namely, the SDN (Software-defined Networking). In particular, SDN defines a new entity, the controller that is in charge of controlling the devices belonging to the data plane. Thus, in a SDN-network, the data plane, which is handled by networking devices called virtual switches, and the control plane, which takes the decisions and executed by the controller, are separated. In order to let the controller take its decisions, it must have a global view on the network. This includes the topology of the network and its links capacity, along with other possible performance metrics such delays, loss rates, and available bandwidths. This knowledge can enable a multi-class routing, or help guarantee levels of Quality of Service. The contributions of this thesis are new algorithms that allow a centralized entity, such as the controller in an SDN network, to accurately estimate the end-to-end delay for a given flow in its network. The proposed methods are passive in the sense that they do not require any additional traffic to be run. More precisely, we study the expectation and the standard deviation of the delay. We show how the first moment can be easily computed. On the other hand, estimating the standard deviation is much more complex because of the correlations existing between the different waiting times. We show that the proposed methods are able to capture these correlations between delays and thus providing accurate estimations of the standard deviation of the end-to-end delay. Simulations that cover a large range of possible scenariosvalidate these results
267

Simulação de dados visando à estimação de componentes de variância e coeficientes de herdabilidade / Simulation of data aiming at the estimation of variance components and heritability

Angela Mello Coelho 03 February 2006 (has links)
A meta principal desse trabalho foi comparar métodos de estimação para coeficientes de herdabilidade para os modelos inteiramente ao acaso e em blocos casualizados. Para os dois casos foram utilizadas as definições de coeficiente de herdabilidade (h2) no sentido restrito, dadas respectivamente, por h2=4 σ2t/(σ2+σ2t) e h2=4 σ2t/(σ2+σ2t+σ2b). . Portanto, é preciso estimar os componentes de variância relativos ao erro experimental (σ2) e ao efeito de tratamentos (σ2t) quando se deseja estimar h2 para o modelo inteiramente ao acaso. Para o modelo para blocos casualizados, além de estimar os últimos dois componentes, é necessário estimar o componente de variância relativo ao efeito de blocos (σ2b). Para atingir a meta estabelecida, partiu-se de um conjunto de dados cujo coeficiente de herdabilidade é conhecido, o que foi feito através da simulação de dados. Foram comparados dois métodos de estimação, o método da análise da variância e método da máxima verossimilhança. Foram feitas 80 simulações, 40 para cada ensaio. Para os dois modelos, as 40 simulações foram divididas em 4 casos contendo 10 simulações. Cada caso considerou um valor distinto para h2, esses foram: h2=0,10; 0,20; 0,30 e 0,40; para cada um desses casos foram fixados 10 valores distintos para o σ2, a saber: σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100. Os valores relativos ao σ2 foram encontrados através da equação dada para os coeficientes de herdabilidade, sendo que, para o modelo em blocos casualizados, foi fixado σ2b=20 para todas os 40 casos. Após realizadas as 80 simulações, cada uma obtendo 1000 conjunto de dados, e por conseqüência 1000 estimativas para cada componente de variância e coeficiente de herdabilidade relativos a cada um dos casos, foram obtidas estatísticas descritivas e histogramas de cada conjunto de 1000 estimativas. A comparação dos métodos foi feita através da comparação dessas estatísticas descritivas e histogramas, tendo como referência os valores dos parâmetros utilizados nas simulações. Para ambos os modelos observou-se que os dois métodos se aproximam quanto a estimação de σ2. Para o delineamento inteiramente casualizado, o método da máxima verossimilhança forneceu estimativas que, em média, subestimaram os valores de σ2t, e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Para o modelo em blocos casualizados, ambos os métodos se assemelham, também, quanto à estimação de σ2t, porém o método da máxima verossimilhança fornece estimativas que tendem a subestimar o σ2b, e e por conseqüência, tendem a superestimar o h2, o que não acontece para o método da análise da variância. Logo, o método da análise da variância se mostrou mais confiável quando se objetiva estimar componentes de variância e coeficientes de herdabilidade para ambos os modelos considerados. / The main aim of this work was to compare methods of estimation of heritability for the 1- way classification and the 2-way crossed classification without interaction. For both cases the definition of heritability (h2) in the narrow sense was used, given respectively, by h2=4σ2t/(σ2+σ2t) e h2=4σ2t/(σ2+σ2t+σ2b). Therefore, there is a need to estimate the components of variance related to the residual (σ2) and the effect of treatments (σ2t) in order to estimate (h2) for the 1-way classification. For the 2-way classification without interaction, there is a need to estimate the component of variance related to the effect of blocks (σ2b) as well as the other two components. To achieve the established aim, a data set with known heritability was used, produced by simulation. Two methods of estimation were compared: the analysis of variance method and the maximum likelihood method. 80 simulations were made, 40 for each classification. For both models, the 40 simulations were divided into 4 different groups containing 10 simulations. Each group considered a different value for h2 (h2=0,10; 0,20; 0,30 e 0,40) and for each one of those cases there were 10 different values fixed for) σ2 (σ2=10; 20; 30; 40; 50; 60; 70; 80; 90; 100). The values for σ2t were found using the equations for the heritability, and for the 2-way crossed classification without interaction, σ2b=20 for all the 40 cases. After the 80 simulations were done, each one obtaining 1000 data sets, and therefore 1000 estimates of each component of variance and the heritability, descriptive statistics and histograms were obtained for each set of 1000 estimates. The comparison of the methods was made based on the descriptive statistics and histograms, using as references the values of the parameters used in the simulations. For both models, the estimates of σ2 were close to the true values. For the 1-way classification, the maximum likelihood method gave estimates that, on average, underestimated the values of σ2t, and therefore the values of h2. This did not happen with the analysis of variance method. For the 2-way crossed classification without interaction, both methods gave similar estimates of σ2t, although the maximum likelihood method gave estimates that tended to underestimate σ2b and therefore to overestimate h2. This did not happen with the analysis of variance method. Hence, the analysis of variance method proved to be more accurate for the estimation of variance components and heritability for both classifications considered in this work.
268

Instrumentation d'un récepteur hétérodyne à 2.6 THz / Instrumentation of a 2.6 THz heterodyne receiver

Defrance, Fabien 14 December 2015 (has links)
Les observations astronomiques nous permettent d’étudier l’univers et de comprendre les phénomènes qui le gouvernent. La matière visible dans l’univers émet des ondes à des fréquences très diverses, réparties sur tout le spectre électromagnétique (domaines radio, submillimétrique, infrarouge, visible, ultraviolet, X et gamma). Ces ondes nous renseignent sur certaines caractéristiques physico-chimiques des éléments observés (nature, température, mouvement, etc.). Des télescopes couvrant différentes plages de fréquences sont nécessaires pour observer l’ensemble du spectre électromagnétique. Les radio-télescopes, sensibles aux ondes (sub)millimétriques, sont principalement dédiés à l’observation de la matière froide présente dans le milieu interstellaire. Le milieu interstellaire est le berceau des étoiles et son étude est essentielle pour comprendre les différentes étapes de la vie des étoiles. La fréquence maximale d’observation des radio-télescopes est en augmentation depuis la fabrication des premiers radio-télescopes dans les années 1930. Récemment, des radio-télescopes capables de détecter des signaux dans l’infrarouge lointain, au delà de 1 THz, ont été développés. Ces avancées technologiques ont été motivées, entre autres, par la présence, dans le milieu interstellaire, de molécules et d’ions uniquement observables à des fréquences supérieures à 1 THz. Pour observer des raies avec une haute résolution spectrale, les radio-télescopes sont équipés de récepteurs hétérodynes. Ce type de récepteur permet d’abaisser la fréquence de la raie spectrale observée tout en conservant ses caractéristiques (une raie observée à 1 THz peut, par exemple, être décalée à une fréquence de 1 GHz). Cette technique permet d’observer des raies avec une très haute résolution spectrale et c’est pourquoi les récepteurs hétérodynes sont largement utilisés pour les observations de raies spectrales aux fréquences GHz et THz. Dans les récepteurs hétérodynes, un oscillateur local (OL) émet un signal monochromatique à une fréquence très proche de celle du signal observé. Les deux signaux sont superposés à l’aide d’un diplexeur et transmis à un mélangeur. Ce dernier réalise le battement des deux signaux et génère un signal identique au signal observé mais à une fréquence plus faible. Durant ma thèse, j’ai travaillé sur la construction, la caractérisation et l’amélioration d’un récepteur hétérodyne à 2.6 THz. Cette fréquence d’observation (2.6 THz) est l’une des plus hautes atteintes par les récepteurs hétérodynes THz existant actuellement, ce qui constitue un défi technologique très important. Dans le but de caractériser et d’améliorer ce récepteur, je me suis concentré sur trois aspects essentiels ..... / (Sub)Millimeter-telescopes are often used to observe the interstellar medium in the universe and they enable us to study the stellar life cycle. To detect and study some important molecules and ions, we need receivers able to observe at frequencies above 1 THz. Receivers working at such high frequencies are quite new and the 2.6 THz heterodyne receiver I built and characterized during my PhD represents the state-of-the-art of THz heterodyne receivers. I especially focused on three important aspects of this receiver: its stability, the superimposition of the local oscillator signal (LO) and the observed signal by a diplexer, and the splitting of the LO signal by a phase grating. The stability was calculated with the Allan variance and I found that the two elements limiting the stability of our receiver were the 1.4 THz local oscillator and the mixer bias supply. The Martin-Puplett interferometer (MPI) diplexer I designed, built and tested is able to transmit 76 % of the LO power at 2.6 THz and we estimate a transmittance around 79 % for the observed signal. This MPI is operational and ready for the next generation of heterodyne receivers. Splitting the LO signal is essential to build heterodyne receivers with several pixels, which allows us to get spectra of the universe at many positions in the sky simultaneously. I have developed a new kind of grating, called Global gratings, and I made two prototypes of these Global phase gratings able to split the LO beam into four beams. These two phase grating prototypes, a transmissive and a reflective one, were optimized for 610 GHz and showed, respectively, an efficiency of 62 ± 2 % and 76 ± 2 %. These excellent results validate the design and fabrication processes of this new kind of grating. In conclusion, the work accomplished during this PhD constitutes an important step toward the realization of a very stable and highly sensitive 2.6 THz multi-pixel heterodyne receiver using a MPI diplexer.
269

Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori / Denoising 3D microscopy images of cell nuclei using shape priors

Bouyrie, Mathieu 29 November 2016 (has links)
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion. / In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process.
270

Kalkulace nákladů ve vybrané firmě / Costing in the Selected Firm

Zelinková, Petra January 2012 (has links)
The Master´s thesis deals with standard costing method and its implementation in service company which especially fixes and varnishes cars. This work is divided into three parts – theoretic, analytic and proposal. The theoretical part deals with the charactersics of costs and methods of calculation, especially standard costing. The analytical part describes the current status of the company in which the method should be implemented. In the design part the process of iplementation is analyzed.

Page generated in 0.0384 seconds