• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 141
  • 50
  • 34
  • 15
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 311
  • 77
  • 27
  • 26
  • 25
  • 23
  • 20
  • 19
  • 18
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Concepts and applications of quantum measurement

Knee, George C. January 2014 (has links)
In this thesis I discuss the nature of ‘measurement’ in quantum theory. ‘Measurement’ is associated with several different processes: the gradual imprinting of information about one system onto another, which is well understood; the collapse of the wavefunction, which is ill-defined and troublesome; and finally, the means by which inferences about unknown experimental parameters are made. I present a theoretical extension to an experimental proposal from Leggett and Garg, who suggested that the quantum-or-classical reality of a macroscopic system may be probed with successive measurements arrayed in time. The extension allows for a finite level of imperfection in the protocol, and makes use of Leggett’s ‘null result’ measurement scheme. I present the results of an experiment conducted in Oxford that, up to certain loopholes, defies a non-quantum interpretation of the dynamics of phosphorous nuclei embedded in silicon. I also present the theory of statistical parameter estimation, and discover that a recent trend to employ time symmetric ‘postselected’ measurements offers no true advantage over standard methods. The technique, known as weak-value amplification, combines a weak transfer of quantum information from system to meter with conditional data rejection, to surprising effect. The Fisher information is a powerful tool for evaluating the performance of any parameter estimation model, and it reveals the technique to be worse than ordinary, preselected only measurements. That this is true despite the presence of noise (including magnetic field fluctuations causing deco- herence, poor resolution detection, and random displacements), casts serious doubt on the utility of the method.
272

Simulation de modèles personnalisés de gliomes pour la planification de thérapies / Simulation of patient-specific glioma models for therapy planning

Stretton, Erin 14 November 2014 (has links)
Les modèles de croissance tumorale fondés sur l'équation de réaction-diffusion Fisher Kolmogorov FK ont montré des résultats probants dans la reproduction et la prédiction de l'invasion de cellules tumorales du cerveau pour les gliomes. Nous utilisons différentes formulations du modèle FK pour évaluer la nécessité de l’imagerie de diffusion pour construire des modèles spécifiques de Gliomes de Bas Grade GBG, l'étude de l'infiltration de cellules tumorales après une résection chirurgicale de la tumeur, et définir une métrique pour quantifier l’évolution de GBG. L'imagerie en tenseur de diffusion ITD a été suggérée pour modéliser la diffusion anisotrope des cellules tumorales dans la matière blanche du cerveau. Les ITD acquises en basse résolution impactent la précision des résultats des modèles de croissance. Nous utilisons une formulation FK pour décrire l'évolution de la frontière visible de la tumeur pour étudier l'impact du remplacement de l'ITD patient par une hypothèse de diffusion isotrope ou une ITD de référence anisotrope en haute résolution formée par la moyenne des ITD de plusieurs patients. Nous quantifions l'impact du remplacement de l'ITD acquise sur un patient à aide de simulations de croissance tumorales synthétiques et des prévisions d'évolution de la tumeur d'un cas clinique. Cette étude suggère que la modélisation de la croissance du gliome à base de motilité différentielle de tissus donne des résultats un peu moins précis qu'à l'aide d'une ITD. S'abstenir d'utiliser une ITD serait suffisant lors de la modélisation de GBG. Par conséquent, toutes ces options d'ITD sont valides dans une formulation FK pour modéliser la croissance de GBG dans le but d'aider les cliniciens dans la planification du traitement. Après la résection d’une tumeur cérébrale, ils veulent savoir quel serait le meilleur traitement de suivi pour chaque patient : une chimiothérapie pour des tumeurs diffuses ou bien une deuxième résection après un laps de temps donné pour les tumeurs massives. Nous proposons une méthode pour tirer profit de modèles de croissance de gliome FK sur les cas post-opératoires montrant des distorsions du cerveau pour estimer l'infiltration des cellules tumorales au-delà des frontières visibles dans les IRM FLAIR. Notre méthode répond à 2 défis de modélisation : celui du mouvement du parenchyme cérébral après la chirurgie avec une technique de recalage non-linéaire et celui de la segmentation incomplète de la tumeur post-opératoire en combinant 2 cartes d'infiltration : une ayant été simulée à partir d'une image pré-opératoire et l’autre à partir d'une image post-opératoire. Nous avons utilisé les données de 2 patients ayant des GBG afin de démontrer l'efficacité de la méthode. Celle-ci pourrait aider les cliniciens à anticiper la récurrence de la tumeur après une résection et à caractériser l’étendue de l'infiltration non visible par la radiologie pour planifier la thérapie. Pour les GBG visibles par une IRM FLAIR/T2, il y a un débat important au sein du groupe de travail RANO Response Assessment in Neuro-Oncology sur la sélection d'un seuil pertinent des métriques basées sur l’évolution de la taille de la tumeur pour déterminer si la maladie est évolutive ME. Nous proposons une approche pour évaluer la ME du GBG en utilisant des estimations de la vitesse de croissance de la tumeur à partir d'une formulation FK qui prend en compte les irrégularités de forme de la tumeur, les différences de vitesse de croissance entre la matière grise et la matière blanche, et les changements volumétriques. En utilisant les IRM FLAIR de 9 patients, nous comparons les estimations de ME de notre approche proposée avec celles calculées en utilisant les estimations manuelles de la vitesse de croissance tumorale 1D, 2D et 3D et celles calculées en utilisant un ensemble de critères basés sur la taille critères RECIST, Macdonald et RANO. Notre approche est prometteuse pour évaluer la ME du GBG à partir d'un nombre limité d'examens par IRM. / Tumor growth models based on the Fisher Kolmogorov (FK) reaction-diffusion equation have shown convincing results in reproducing and predicting the invasion patterns of glioma brain tumors. In this thesis we use different FK model formulations to i) assess the need of patient-specific DTIs when modeling LGGs, ii) study cancer cell infiltration after tumor resections, and iii) define a metric to determine progressive disease for low-grade glimoas (LGG).Diffusion tensor images (DTIs) have been suggested to model the anisotropic diffusion of tumor cells in brain white matter. However, patient specific DTIs are expensive and often acquired with low resolution, which compromises the accuracy of the tumor growth models' results. We used a FK formulation to describe the evolution of the visible boundary of the tumor to investigate the impact of replacing the patient DTI by i) an isotropic diffusion map or ii) an anisotropic high-resolution DTI atlas formed by averaging the DTIs of multiple patients. We quantify the impact of replacing the patient DTI using synthetic tumor growth simulations and tumor evolution predictions on a clinical case. This study suggests that modeling glioma growth with tissue based differential motility (not using a DTI) yields slightly less accurate results than using a DTI. However, refraining from using a DTI would be sufficient in situations when modeling LGGs. Therefore, any of these DTI options are valid to use in a FK formulation to model LGG growth with the purpose of aiding clinicians in therapy planning.After a brain resection medical professionals want to know what the best type of follow-up treatment would be for a particular patient, i.e., chemotherapy for diffuse tumors or a second resection after a given amount of time for bulky tumors. We propose a thorough method to leverage FK reaction-diffusion glioma growth models on post-operative cases showing brain distortions to estimate tumor cell infiltration beyond the visible boundaries in FLAIR MRIs. Our method addresses two modeling challenges: i) the challenge of brain parenchyma movement after surgery with a non-linear registration technique and ii) the challenge of incomplete post-operative tumor segmentations by combining two infiltration maps, where one was simulated from a pre-operative image and one estimated from a post-operative image. We used the data of two patients with LGG to demonstrate the effectiveness of the proposed three-step method. We believe that our proposed method could help clinicians anticipate tumor regrowth after a resection and better characterize the radiological non-visible infiltrative extent of a tumor to plan therapy.For LGGs captured on FLAIR/T2 MRIs, there is a substantial amount debate on selecting a definite threshold for size-based metrics to determine progressive disease (PD) and it is still an open item for the Response Assessment in Neuro-Oncology (RANO) Working Group. We propose an approach to assess PD of LGG using tumor growth speed estimates from a FK formulation that takes into consideration irregularities in tumor shape, differences in growth speed between gray matter and white matter, and volumetric changes. Using the FLAIR MRIs of nine patients we compare the PD estimates of our proposed approach to i) the ones calculated using 1D, 2D, and 3D manual tumor growth speed estimates and ii) the ones calculated using a set of well-established size-based criteria (RECIST, Macdonald, and RANO). We conclude from our comparison results that our proposed approach is promising for assessing PD of LGG from a limited number of MRI scans. It is our hope that this model's tumor growth speed estimates could one day be used as another parameter in clinical therapy planning.
273

Evolution expérimentale et spécialisation dans le paysage adaptatif d'un gradient environnemental / Experimental evolution and specialization in the adaptive landscape of an environmental gradient

Harmand, Noémie 21 June 2017 (has links)
De nos jours plus que jamais, il est nécessaire d’anticiper et de comprendre les réponses évolutives des organismes vivants, face à des habitats instables et hétérogènes. Mais à quel point cela est-il possible ? Reproduire l’ensemble du déroulé d’une trajectoire évolutive nécessite de pouvoir décrire, d’une part, le « matériel » disponible pour s’adapter (c’est-à-dire les effets phénotypiques associés à la variabilité génétique produite), d’autre part, comment agissent les forces évolutives, associées à un contexte écologique, pour aboutir à un certain « assemblage » de ce matériel. Dans sa version la plus simple, ce processus évolutif peut-être décrit par plusieurs cycles d’évènements de mutations-sélection conduisant à l’adaptation d’une population à son environnement. Cette dynamique correspond assez bien à celle qui est décrite par les populations bactériennes dans les expériences d’évolution contrôlées en laboratoire. Parallèlement, les modèles de paysages adaptatifs (phénotypiques), et en particulier le modèle géométrique de Fisher, sont des outils très puissants pour formuler des prédictions générales et quantitativement testables sur ces trajectoires évolutives. Cependant, ils restent très théoriques et ont été largement pensés dans un contexte écologique simplifié. Au cours de cette thèse, nous avons identifié les déterminants (mutationnels et sélectifs) des trajectoires évolutives à long terme de populations bactériennes s’adaptant dans différents contextes environnementaux. Une première partie des résultats est mise en lumière par la validation expérimentale et la reconstruction de la topographie du paysage adaptatif généré par différentes doses d’un antibiotique, le long d’un gradient. Une deuxième partie expérimentale vise à intégrer une composante biotique (une autre bactérie) à ce même contexte environnemental. Les processus évolutifs intervenant au cours d’une coévolution à long terme maintenue par sélection fréquence-dépendante, y sont étudiés. / Today more than ever, it is crucial to anticipate and understand the evolutionary responses of living organisms faced with heterogeneous and unstable habitats. But to what extent is this possible? To reproduce an entire evolutionary trajectory, we must first describe the “material” available for adaptation (e.g. the phenotypic effects associated with the existing and novel genetic variability), and second describe the way evolutionary forces, shaped by the ecological context, result in specific “assemblies” of this material. At its simplest, this evolutionary process can be described by several cycles of mutation-selection events, leading to the adaptation of a population to an environment. This process is reflected in the evolutionary trajectories of bacterial lineages undergoing controlled experimental evolution in the lab. Concurrently, adaptive (phenotypic) landscape models, and especially Fisher’s geometrical model of adaptation, are powerful tools to formulate general predictions, which can then be tested on such evolutionary trajectories. However, they remain highly theoretical, and are widely conceived in a simple ecological context. In this thesis, we identified the (mutational and selective) determinants of the evolutionary trajectories of bacterial lines adapting to various environmental contexts. A first set of results regards evolution along a gradient of antibiotic doses, and their relevance is highlighted by experimental validation and by the reconstruction of the underlying adaptive landscape. A second experimental part integrates a biotic component (another bacteria) to the same environmental context. The evolutionary processes acting throughout the resulting long-term coevolution – maintained by frequency-dependent selection – are studied.
274

Calibração linear assimétrica / Asymmetric Linear Calibration

Figueiredo, Cléber da Costa 27 February 2009 (has links)
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos. / This thesis focuses on theoretical and applied estimation aspects of the linear calibration model with skew-normal (Azzalini, 1985) and skew-t-normal (Gómez, Venegas e Bolfarine, 2007) error distributions. Applying the asymmetrical distributed error methodology, it is not necessary to transform the variables in order to have symmetrical errors. The frequentist and the Bayesian solution are presented. The parameter estimation and its variance estimation were studied using the EM algorithm and the Gibbs sampler, respectively, in each approach. The main point, in the frequentist approach, is the presentation of a new parameterization to avoid singularity of the information matrix under the skew-normal calibration model in a neighborhood of lambda = 0. Another interesting aspect is that the reparameterization developed to make the information matrix nonsingular, when the skewness parameter is near to zero, leaves the parameter of interest unchanged. The main point, in the Bayesian framework, is the presentation of two measures of goodness-of-fit: ADIC (Asymmetric Deviance Information Criterion) and EDIC (Evident Deviance Information Criterion ). They are natural extensions of the ordinary DIC developed by Spiegelhalter et al. (2002).
275

Uma abordagem personalizada no processo de seleção de itens em Testes Adaptativos Computadorizados / A personalized approach to the item selection process in Computerized Adaptive Testing

Victor Miranda Gonçalves Jatobá 08 October 2018 (has links)
Testes Adaptativos Computadorizados (CAT) baseados na Teoria de Resposta ao Item permitem fazer testes mais precisos com um menor número de questões em relação à prova clássica feita a papel. Porém a construção de CAT envolve alguns questionamentos-chave, que quando feitos de forma adequada, podem melhorar ainda mais a precisão e a eficiência na estimativa das habilidades dos respondentes. Um dos principais questionamentos está na escolha da Regra de Seleção de Itens (ISR). O CAT clássico, faz uso, exclusivamente, de uma ISR. Entretanto, essas regras possuem vantagens, entre elas, a depender do nível de habilidade e do estágio em que o teste se encontra. Assim, o objetivo deste trabalho é reduzir o comprimento de provas dicotômicas - que consideram apenas se a resposta foi correta ou incorreta - que estão inseridas no ambiente de um CAT que faz uso, exclusivo, de apenas uma ISR sem perda significativa de precisão da estimativa das habilidades. Para tal, cria-se a abordagem denominada ALICAT que personaliza o processo de seleção de itens em CAT, considerando o uso de mais de uma ISR. Para aplicar essa abordagem é necessário primeiro analisar o desempenho de diferentes ISRs. Um estudo de caso na prova de Matemática e suas tecnologias do ENEM de 2012, indica que a regra de seleção de Kullback-Leibler com distribuição a posteriori (KLP) possui melhor desempenho na estimativa das habilidades dos respondentes em relação as regras: Informação de Fisher (F); Kullback-Leibler (KL); Informação Ponderada pela Máxima Verossimilhança (MLWI); e Informação ponderada a posteriori (MPWI). Resultados prévios da literatura mostram que CAT utilizando a regra KLP conseguiu reduzir a prova do estudo de caso em 46,6% em relação ao tamanho completo de 45 itens sem perda significativa na estimativa das habilidades. Neste trabalho, foi observado que as regras F e a MLWI tiveram melhor desempenho nos estágios inicias do CAT, para estimar respondentes com níveis de habilidades extremos negativos e positivos, respectivamente. Com a utilização dessas regras de seleção em conjunto, a abordagem ALICAT reduziu a mesma prova em 53,3% / Computerized Adaptive Testing (CAT) based on Item Response Theory allows more accurate assessments with fewer questions than the classic paper test. Nonetheless, the CAT building involves some key questions that, when done properly, can further improve the accuracy and efficiency in estimating examinees\' abilities. One of the main questions is in regard to choosing the Item Selection Rule (ISR). The classic CAT makes exclusive use of one ISR. However, these rules have differences depending on the examinees\' ability level and on the CAT stage. Thus, the objective of this work is to reduce the dichotomous - which considers only correct and incorrect answers - test size which is inserted on a classic CAT without significant loss of accuracy in the estimation of the examinee\'s ability level. For this purpose, we create the ALICAT approach that personalizes the item selection process in a CAT considering the use of more than one ISR. To apply this approach, we first analyze the performance of different ISRs. The case study in textit test of the ENEM 2012 shows that the Kullback-Leibler Information with a Posterior Distribution (KLP) has better performance in the examinees\' ability estimation when compared with: Fisher Information (F); Kullback-Leibler Information (KL); Maximum Likelihood Weighted Information(MLWI); and Maximum Posterior Weighted Information (MPWI) rules. Previous results in the literature show that CAT using KLP was able to reduce this test size by 46.6% from the full size of 45 items with no significant loss of accuracy in estimating the examinees\' ability level. In this work, we observe that the F and the MLWI rules performed better on early CAT stages to estimate examinees proficiency level with extreme negative and positive values, respectively. With this information, we were able to reduce the same test by 53.3% using an approach that uses the best rules together
276

Calibração linear assimétrica / Asymmetric Linear Calibration

Cléber da Costa Figueiredo 27 February 2009 (has links)
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos. / This thesis focuses on theoretical and applied estimation aspects of the linear calibration model with skew-normal (Azzalini, 1985) and skew-t-normal (Gómez, Venegas e Bolfarine, 2007) error distributions. Applying the asymmetrical distributed error methodology, it is not necessary to transform the variables in order to have symmetrical errors. The frequentist and the Bayesian solution are presented. The parameter estimation and its variance estimation were studied using the EM algorithm and the Gibbs sampler, respectively, in each approach. The main point, in the frequentist approach, is the presentation of a new parameterization to avoid singularity of the information matrix under the skew-normal calibration model in a neighborhood of lambda = 0. Another interesting aspect is that the reparameterization developed to make the information matrix nonsingular, when the skewness parameter is near to zero, leaves the parameter of interest unchanged. The main point, in the Bayesian framework, is the presentation of two measures of goodness-of-fit: ADIC (Asymmetric Deviance Information Criterion) and EDIC (Evident Deviance Information Criterion ). They are natural extensions of the ordinary DIC developed by Spiegelhalter et al. (2002).
277

Uma abordagem personalizada no processo de seleção de itens em Testes Adaptativos Computadorizados / A personalized approach to the item selection process in Computerized Adaptive Testing

Jatobá, Victor Miranda Gonçalves 08 October 2018 (has links)
Testes Adaptativos Computadorizados (CAT) baseados na Teoria de Resposta ao Item permitem fazer testes mais precisos com um menor número de questões em relação à prova clássica feita a papel. Porém a construção de CAT envolve alguns questionamentos-chave, que quando feitos de forma adequada, podem melhorar ainda mais a precisão e a eficiência na estimativa das habilidades dos respondentes. Um dos principais questionamentos está na escolha da Regra de Seleção de Itens (ISR). O CAT clássico, faz uso, exclusivamente, de uma ISR. Entretanto, essas regras possuem vantagens, entre elas, a depender do nível de habilidade e do estágio em que o teste se encontra. Assim, o objetivo deste trabalho é reduzir o comprimento de provas dicotômicas - que consideram apenas se a resposta foi correta ou incorreta - que estão inseridas no ambiente de um CAT que faz uso, exclusivo, de apenas uma ISR sem perda significativa de precisão da estimativa das habilidades. Para tal, cria-se a abordagem denominada ALICAT que personaliza o processo de seleção de itens em CAT, considerando o uso de mais de uma ISR. Para aplicar essa abordagem é necessário primeiro analisar o desempenho de diferentes ISRs. Um estudo de caso na prova de Matemática e suas tecnologias do ENEM de 2012, indica que a regra de seleção de Kullback-Leibler com distribuição a posteriori (KLP) possui melhor desempenho na estimativa das habilidades dos respondentes em relação as regras: Informação de Fisher (F); Kullback-Leibler (KL); Informação Ponderada pela Máxima Verossimilhança (MLWI); e Informação ponderada a posteriori (MPWI). Resultados prévios da literatura mostram que CAT utilizando a regra KLP conseguiu reduzir a prova do estudo de caso em 46,6% em relação ao tamanho completo de 45 itens sem perda significativa na estimativa das habilidades. Neste trabalho, foi observado que as regras F e a MLWI tiveram melhor desempenho nos estágios inicias do CAT, para estimar respondentes com níveis de habilidades extremos negativos e positivos, respectivamente. Com a utilização dessas regras de seleção em conjunto, a abordagem ALICAT reduziu a mesma prova em 53,3% / Computerized Adaptive Testing (CAT) based on Item Response Theory allows more accurate assessments with fewer questions than the classic paper test. Nonetheless, the CAT building involves some key questions that, when done properly, can further improve the accuracy and efficiency in estimating examinees\' abilities. One of the main questions is in regard to choosing the Item Selection Rule (ISR). The classic CAT makes exclusive use of one ISR. However, these rules have differences depending on the examinees\' ability level and on the CAT stage. Thus, the objective of this work is to reduce the dichotomous - which considers only correct and incorrect answers - test size which is inserted on a classic CAT without significant loss of accuracy in the estimation of the examinee\'s ability level. For this purpose, we create the ALICAT approach that personalizes the item selection process in a CAT considering the use of more than one ISR. To apply this approach, we first analyze the performance of different ISRs. The case study in textit test of the ENEM 2012 shows that the Kullback-Leibler Information with a Posterior Distribution (KLP) has better performance in the examinees\' ability estimation when compared with: Fisher Information (F); Kullback-Leibler Information (KL); Maximum Likelihood Weighted Information(MLWI); and Maximum Posterior Weighted Information (MPWI) rules. Previous results in the literature show that CAT using KLP was able to reduce this test size by 46.6% from the full size of 45 items with no significant loss of accuracy in estimating the examinees\' ability level. In this work, we observe that the F and the MLWI rules performed better on early CAT stages to estimate examinees proficiency level with extreme negative and positive values, respectively. With this information, we were able to reduce the same test by 53.3% using an approach that uses the best rules together
278

Contraintes apportées par la spectroscopie intégrale de champ à la formation et à l'évolution des galaxies.

Puech, Mathieu 09 January 2006 (has links) (PDF)
Cette thèse est consacrée à l'étude de la formation et de l'évolution des galaxies. La mise à disposition de la communauté par l'ESO du spectrographe à multi-intégrales de champ FLAMES/GIRAFFE représente une opportunité unique d'étudier la dynamique des galaxies à z<1, et de pouvoir ainsi relier les populations distantes aux populations locales. Nous présentons dans un premier temps les résultats obtenus grâce à cet instrument dans le cadre du temps garanti de l'Observatoire de Paris (GEPI). Ces résultats montrent que la fraction de galaxies n'ayant pas encore atteint leur équilibre dynamique à z~0.6 est importante. Cette fraction est encore plus importante parmi les galaxies compactes lumineuses (LCGs), ce qui supporte l'hypothèse selon laquelle ces galaxies sont des systèmes en cours de fusion. Jusqu'à présent, l'utilisation de la spectroscopie à fente ne permettait pas de distinguer efficacement les systèmes relaxés des systèmes non relaxés, ce qui explique les désaccords concernant l'évolution de la relation de Tully-Fisher. Les résultats présentés dans cette thèse montrent en effet une non évolution de cette relation dans le plan vitesse-masse stellaire. Enfin, GIRAFFE avec son mode IFU montre la pertinence de la cartographie physico-chimique du milieu interstellaire dans la compréhension des mécanismes liés aux processus de formation stellaire dans les galaxies distantes. L'extension des méthodes de spectroscopie intégrale de champ à z>1 requiert d'explorer leur couplage avec des techniques d'optique adaptative. Le projet FALCON (à la fois dédié aux VLTs et aux ELTs) propose une nouvelle voie prometteuse dans cette direction en introduisant le concept d'optique adaptative multi-objets (MOAO). Dans ce concept, seules les zones d'intérêt scientifique sont corrigées et analysées, ce qui nécessite le développement de systèmes miniaturisés de correction de front d'onde ainsi que d'une stratégie de commande originale en boucle ouverte.
279

Entropies et Radiotechnique

Bercher, Jean-François 01 December 2009 (has links) (PDF)
Ce mémoire présente différentes contributions dans les domaines du traitement et la théorie de l'information (plus particulièrement l'étude et l'exploitation de mesures d'information) et de la radiotechnique (statistique). On présente quelques techniques fondées sur le principe du maximum d'entropie, comprenant le maximum d'entropie sur la moyenne et une extension itérative. On décrit ensuite comment on peut interpréter la technique des superstatistiques de Beck et Cohen comme une conséquence d'un maximum d'entropie avec contraintes aléatoires, et on explicite un cas particulier qui mène aux K-distributions. Pour appliquer pratiquement des résultats impliquant des mesures d'entropie, on propose et on caractérise un estimateur de l'entropie de Shannon, et on décrit quelques applications possibles. On décrit également, à partir d'une inégalité de convolution, comment on peut une utiliser une forme alternative, l'entropie de Rényi, pour des problèmes de déconvolution. On s'intéresse ensuite de manière un peu plus précise aux entropies de Rényi-Tsallis, aux distributions à maximum d'entropie de Rényi-Tsallis que l'on peut en déduire, et à leurs justifications et applications. On montre notamment que les entropies de Rényi-Tsallis peuvent être déduites à partir d'une approche classique de maximum d'entropie, en prenant en compte une contrainte figurant un système dont l'équilibre est déplacé. D'un autre côté, on relie les distributions de Rényi-Tsallis à la distribution des excès en théorie des extrêmes, ce qui fournit une justification potentielle à la relative ubiquité de ces distributions. Comme conséquence des problèmes de maximum d'entropie de Rényi-Tsallis, on peut définir des fonctionnelles entropiques, que l'on étudie et dont on donne quelques propriétés et caractérisations. On s'intéresse également à l'information de Fisher, et on décrit quelques contributions. Plus spécifiquement, nous avons étudié l'extension au cas multivarié, et aux transformations non inversibles, de l'inégalité sur l'information de Fisher. On a considéré également l'utilisation conjointe de l'information de Fisher et l'entropie de Shannon pour l'analyse de signaux, en définissant un plan d'information de Fisher-Shannon. Pour des distributions à support borné, typiquement définies sur R+ ou sur un intervalle, on caractérise les distributions à minimum d'information de Fisher sous contrainte de variance, et on étudie la fonctionnelle d'information de Fisher associée. En ce qui concerne l'aspect radiotechnique, on s'intéresse à des problèmes d'architecture des émetteurs-récepteurs numériques, et au développement d'algorithmes de correction, calibration ou contrôle. Les contraintes posées pour la réalisation des émetteurs radio amènent à sélectionner des solutions de type polaire, où le signal est décomposé en un module (l'enveloppe) et une phase (le cosinus de la phase). On propose ici notamment une évolution de l'architecture EER (Envelope Elimination and Restoration), permettant de fournir à un amplificateur de puissance un signal à enveloppe constante, la restauration de l'enveloppe étant opérée par filtrage passe-bande en sortie de l'émetteur. Au niveau composants, d'autres contributions concernent les boucles à verrouillage de phase entièrement numérique pour lesquelles on propose un modèle comportemental complet du système, ainsi que des algorithmes rapides permettant d'alléger l'implantation. Toujours au niveau composants, on s'intéresse aussi à la réalisation et la stabilisation d'une horloge de référence très haute fréquence, reposant sur l'utilisation d'un BAW, pour laquelle il est important d'établir un modèle direct fiable, d'estimer ses paramètre et de maîtriser la variabilité statistique. Dans les architectures polaires, on étudie et on illustre les conséquences néfastes d'une désynchronisation entre l'enveloppe et la phase sur les différents indicateurs de performance. On propose et on caractérise plusieurs algorithmes, reposant sur des techniques de gradient stochastique, permettant de compenser ces décalages temporels, tout en prenant en charge d'éventuelles distorsions supplémentaires en gain et phase.
280

Lois bayésiennes a priori dans un plan binomial séquentiel

Bunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.

Page generated in 0.0389 seconds