Spelling suggestions: "subject:"correction"" "subject:"eorrection""
361 |
Essays in applied demand and production analysisZereyesus, Yacob Abrehe January 1900 (has links)
Doctor of Philosophy / Department of Agricultural Economics / Vincent R. Amanor-Boadu / This dissertation is composed of two essays in applied microeconomics. Using farm level data, the first essay applied nonparametric methods to test the adherence of individual farm’s production choices to profit maximization objective. Results indicate that none of the farms consistently satisfy the joint hypothesis of profit maximization. The study took into account the uncertainty prevalent in agricultural production by systematically modeling the optimization behavior of farms. Departures of observed data of individual farms from profit maximization objectives were attributed more due to stochastic influences caused by output production decisions than input use decisions. Results also support the existence of technological progress during the study period for Kansas farms. At an alpha level of 5%, assuming both input and output quantities as stochastic, only 5.3% of the farms violated the joint hypothesis of profit maximization with standard error exceeding 10%. Whereas when only input quantities are considered stochastic, a total of 71.73% and 2.09% of the farms had minimum standard errors of greater than 10% and 20% respectively required for the joint profit maximization hypothesis to hold. When only output quantity measurements were assumed as stochastic, a total of 80.10 % and 18.84 % of the farms had minimum standard errors of greater than 10% and 20% respectively required for the profit maximization hypothesis to hold.
The second essay examines the demand for alcoholic beverages (beer, wine and distilled spirits) for the U.S. using time series data from 1979-2006. The estimation is done using an error correction form of the Almost Ideal Demand System . Results indicate that there is a significant difference between short run and long run elasticity estimates. The paper addresses the exogeneity of log of prices and log of real expenditures. For the beer and wine equations, the hypothesis of joint exogeneity of price index and real expenditure cannot be rejected at all the
conventional levels of significance. For the spirits equation, the tests strongly reject the simultaneous exogeneity of price index and real expenditure. When independently tested, price index appears to be endogenous variable where as real expenditure seems exogenous variable. Based on these results, the real expenditure was considered as an exogenous variable, where as the price index for spirits as an endogenous variable.
|
362 |
Décodeurs rapides pour codes topologiques quantiquesDuclos-Cianci, Guillaume January 2010 (has links)
L'encodage topologique de l'information quantique a attiré beaucoup d'attention, car c'est un modèle qui semble propice à résister aux erreurs locales. Tout d'abord, le modèle du calcul topologique est basé sur la statistique anyonique non-Abélienne universelle et sur son contrôle. Des anyons indésirables peuvent apparaître soudainement, en raison de fluctuations thermiques ou de processus virtuels. La présence de ces anyons peut corrompre l'information encodée, il est nécessaire de les éliminer: la correction consiste à fusionner les défauts tout en préservant la topologie du système. Ensuite, dans le cas des codes topologiques, on doit aussi protéger l'information encodée dans la topologie. En effet, dans ces systèmes, on n'a accès qu'à une fraction de l'information décrivant l'erreur. Elle est recueillie par des mesures et peut être interprétée en termes de particules. Ces défauts peuplent le code et doivent être annihilés adéquatement dans le but de préserver l'information encodée. Dans ce mémoire, nous proposons un algorithme efficace, appelé décodeur, pouvant être utilisé dans les deux contextes décrits ci-haut. Pour y parvenir, cet algorithme s'inspire de méthodes de renormalisation et de propagation de croyance. Il est exponentiellement plus rapide que les méthodes déjà existantes, étant de complexité [Caractères spéciaux omis] (l[indice supérieur 2] log l) en série et, si on parallélise, [Caractères spéciaux omis] (log l) en temps, contre [Caractères spéciaux omis] (l[indice supérieur]6) pour les autres décodeurs. Le temps étant le facteur limitant dans le problème du décodage, cette caractéristique est primordiale. De plus, il tolère une plus grande amplitude de bruit que les méthodes existantes; il possède un seuil de ~ 16.5% sur le canal dépolarisant surpassant le seuil déjà établi de ~ 15.5%. Finalement, il est plus versatile. En effet, en étant limité au code de Kitaev, on ne savait pas décoder les codes topologiques de manière générale (e.g. codes de couleur). Or, le décodeur proposé dans ce mémoire peut traiter la grande classe des codes topologiques stabiliseurs.
|
363 |
Diagnostique optimal d'erreurs pour architecture de qubits à mesure faible et continueDenhez, Gabrielle January 2011 (has links)
L'un des principaux obstacles pour construire un ordinateur quantique est la décohérence, laquelle limite grandement le temps alloué pour un calcul ainsi que la taille du système. Pour combattre la décohérence dans un système quantique, des protocoles de correction d'erreurs ont été proposés et semblent apporter une bonne solution à ce problème. Ces protocoles consistent à confiner l'information que contiennent les qubits dans un sous-espace nommé espace code. Après un certain temps d'évolution, on pose un diagnostic sur l'erreur qui s'est produite sur le système en effectuant des mesures indiquant s'il est toujours dans l'espace code où s'il a évolué vers un autre sous-espace. Pour que de tels protocoles soient efficaces, les mesures effectuées doivent en principe être rapides et projectives. Cependant, pour plusieurs architectures de qubits existantes, les mesures sont faibles et se font de façon continue. De plus, elles peuvent introduire elles-mêmes des erreurs dans le système. Ces caractéristiques de mesure rendent difficile le diagnostic de l'erreur tel qu'il est effectué traditionnellement. Aussi comme les mesures peuvent introduire des erreurs, il n'est pas certain que les protocoles de diagnostic d'erreur traditionnels soient utiles. Dans ce travail, on étudie l'utilité d'une mesure faible et continue dans un processus de correction d'erreurs. Cette étude s'est réalisée en deux volets. D'abord, on présente un protocole de correction d'erreur adapté aux architectures de qubits dont la mesure est faible et se fait de façon continue. On montre que ce protocole permet d'évaluer sous quelles conditions une mesure présentant ces caractéristiques peut aider à corriger des erreurs. Ensuite, on teste ce protocole de correction dans le cas particulier des qubits supraconducteurs. On établit sous quelles conditions la mesure sur ces qubits peut aider à diagnostiquer les erreurs et on étudie l'effet de différents paramètres expérimentaux dans ce contexte.
|
364 |
Décodage Viterbi DégénéréPelchat, Émilie January 2013 (has links)
La correction d'erreur fera partie intégrante de toute technologie d'information quantique. Diverses méthodes de correction d'erreurs quantiques ont par conséquent été élaborées pour pallier les erreurs inévitables qui proviennent de la manipulation des qubits ainsi que de leur interaction inévitable avec l'environnement. Parmi les familles de codes de correction d'erreurs se trouvent les codes convolutifs, dont l'utilité envisagée est surtout pour protéger l'information quantique envoyée à travers un canal de communication bruyant. La méthode de décodage des codes convolutifs utilise des algorithmes d'estimation d'erreur basés sur un principe de maximum de vraisemblance. L'algorithme de Viterbi permet de déterminer ce maximum de vraisemblance de façon efficace. Cette méthode permet de trouver le mot code le plus probable et ce en utilisant des outils telle décodage par trellis. De plus, cet algorithme a une complexité linéaire avec le nombre de qubits encodés. Ce mémoire porte sur l'effet de la dégénérescence sur le décodage Viterbi. La dégénérescence est une propriété de lamécanique quantique ne possédant aucun analogue classique par laquelle des corrections distinctes peuvent corriger une erreur donnée. Les versions précédentes de décodage quantique suivant l'algorithme de Viterbi étaient sous-optimales parce qu'elles ne tenaient pas compte de la dégénérescence. La réalisation principale de ce mémoire est la conception d'un algorithme de décodage de Viterbi qui tient compte des erreurs dégénérées et nous les testons par des simulations numériques. Ces simulations démontrent qu'il y a effectivement un avantage à utiliser le décodeur Viterbi qui tient compte de la dégénérescence.
|
365 |
Segmentation d'images de transmission pour la correction de l'atténué en tomographie d'émission par positronsNguiffo Podie, Yves January 2009 (has links)
L'atténuation des photons est un phénomène qui affecte directement et de façon profonde la qualité et l'information quantitative obtenue d'une image en Tomographie d'Emission par Positrons (TEP). De sévères artefacts compliquant l'interprétation visuelle ainsi que de profondes erreurs d'exactitudes sont présents lors de l'évaluation quantitative des images TEP, biaisant la vérification de la corrélation entre les concentrations réelles et mesurées.L' atténuation est due aux effets photoélectrique et Compton pour l'image de transmission (30 keV - 140 keV), et majoritairement à l'effet Compton pour l'image d'émission (511 keV). La communauté en médecine nucléaire adhère largement au fait que la correction d'atténuation constitue une étape cruciale pour l'obtention d'images sans artefacts et quantitativement exactes. Pour corriger les images d'émission TEP pour l'atténué, l'approche proposée consiste concrètement à segmenter une image de transmission à l'aide d'algorithmes de segmentation: K-means (KM), Fuzzy C-means (FCM), Espérance-Maximisation (EM), et EM après une transformation en ondelettes (OEM). KM est un algorithme non supervisé qui partitionne les pixels de l'image en agrégats tels que chaque agrégat de la partition soit défini par ses objets et son centroïde. FCM est un algorithme de classification non-supervisée qui introduit la notion d'ensemble flou dans la définition des agrégats, et chaque pixel de l'image appartient à chaque agrégat avec un certain degré, et tous les agrégats sont caractérisés par leur centre de gravité.L'algorithme EM est une méthode d'estimation permettant de déterminer les paramètres du maximum de vraisemblance d'un mélange de distributions avec comme paramètres du modèle à estimer la moyenne, la covariance et le poids du mélange correspondant à chaque agrégat. Les ondelettes forment un outil pour la décomposition du signal en une suite de signaux dits d'approximation de résolution décroissante suivi d'une suite de rectifications appelées détails.L' image à laquelle a été appliquée les ondelettes est segmentée par EM. La correction d'atténuation nécessite la conversion des intensités des images de transmission segmentées en coefficients d'atténuation à 511 keV. Des facteurs de correction d' atténuation (FCA) pour chaque ligne de réponse sont alors obtenus, lesquels représentent le rapport entre les photons émis et transmis. Ensuite il s'agit de multiplier le sinogramme, formé par l'ensemble des lignes de réponses, des FCA par le sinogramme de l'image d'émission pour avoir le sinogramme corrigé pour l'atténuation, qui est par la suite reconstruit pour générer l'image d'émission TEP corrigée. Nous avons démontré l'utilité de nos méthodes proposées dans la segmentation d'images médicales en les appliquant à la segmentation des images du cerveau, du thorax et de l'abdomen humains. Des quatre processus de segmentation, la décomposition par les ondelettes de Haar suivie de l'Espérance-Maximisation (OEM) semble donner un meilleur résultat en termes de contraste et de résolution. Les segmentations nous ont permis une réduction claire de la propagation du bruit des images de transmission dans les images d'émission, permettant une amélioration de la détection des lésions, et améliorant les diagnostics en médecine nucléaire.
|
366 |
625 MBIT/SEC BIT ERROR LOCATION ANALYSIS FOR INSTRUMENTATION RECORDING APPLICATIONSWaschura, Thomas E. 10 1900 (has links)
International Telemetering Conference Proceedings / October 26-29, 1998 / Town & Country Resort Hotel and Convention Center, San Diego, California / This paper describes techniques for error location analysis used in the design and testing of high-speed instrumentation data recording and communications applications. It focuses on the differences between common bit error rate testing and new error location analysis. Examples of techniques presented include separating bit and burst error components, studying probability of burst occurrences, looking at error free interval occurrence rates as well as auto-correlating error position. Each technique contributes to a better understanding of the underlying error phenomenon and enables higher-quality digital recording and communication. Specific applications in error correction coding emulation, magnetic media error mapping and systematic error interference are discussed.
|
367 |
Adaptation of a Loral ADS 100 as a Remote Ocean Buoy Maintenance SystemSharp, Kirk, Thompson, Lorraine Masi 11 1900 (has links)
International Telemetering Conference Proceedings / October 30-November 02, 1989 / Town & Country Hotel & Convention Center, San Diego, California / The Naval Ocean Research and Development Activity (NORDA) has adapted the Loral Instrumentation Advanced Decommutation system (ADS 100) as a portable maintenance system for one of its remotely deployable buoy systems. This particular buoy system sends up to 128 channels of amplified sensor data to a centralized A/D for formatting and storage on a high density digital recorder. The resulting tapes contain serial PCM data in a format consistent with IRIG Standard 106-87. Predictable and correctable perturbations exist within the data due to the quadrature multiplexed telemetry system. The ADS 100 corrects for the perturbations of the telemetry system and provides the user with diagnostic tools to examine the stored data stream and determine the operational status of the buoy system prior to deployment.
|
368 |
ADAPTATION OF A LORAL ADS 100 AS A REMOTE OCEAN BUOY MAINTENANCE SYSTEMSharp, Kirk, Thompson, Lorraine Masi 11 1900 (has links)
International Telemetering Conference Proceedings / October 30-November 02, 1989 / Town & Country Hotel & Convention Center, San Diego, California / The Naval Ocean Research and Development Activity (NORDA) has adapted the Loral Instrumentation Advanced Decommutation system (ADS 100) as a portable maintenance system for one of its remotely deployable buoy systems. This particular buoy system sends up to 128 channels of amplified sensor data to a centralized A/D for formatting and storage on a high density digital recorder. The resulting tapes contain serial PCM data in a format consistent with IRIG Standard 106-87. Predictable and correctable perturbations exist within the data due to the quadrature multiplexed telemetry system. The ADS 100 corrects for the perturbations of the telemetry system and provides the user with diagnostic tools to examine the stored data stream and determine the operational status of the buoy system prior to deployment.
|
369 |
Impact of attenuation correction on clinical [18F]FDG brain PET in combined PET/MRIWerner, Peter, Rullmann, Michael, Bresch, Anke, Tiepolt, Solveig, Lobsien, Donald, Schröter, Matthias, Sabri, Osama, Barthel, Henryk 20 June 2016 (has links) (PDF)
Background: In PET/MRI, linear photon attenuation coefficients for attenuation correction (AC) cannot be directly derived, and cortical bone is, so far, usually not considered. This results in an underestimation of the average PET signal in PET/MRI. Recently introduced MR-AC methods predicting bone information from anatomic MRI or proton density weighted zero-time imaging may solve this problem in the future. However, there is an ongoing debate if the current error is acceptable for clinical use and/or research. Methods: We examined this feature for [18F] fluorodeoxyglucose (FDG) brain PET in 13 patients with clinical signs of dementia or movement disorders who subsequently underwent PET/CT and PET/MRI on the same day. Multiple MR-AC approaches including a CT-derived AC were applied. Results: The resulting PET data was compared to the CT-derived standard regarding the quantification error and its clinical impact. On a quantitative level, −11.9 to +2 % deviations from the CT-AC standard were found. These deviations, however, did not translate into a systematic diagnostic error. This, as overall patterns of hypometabolism (which are decisive for clinical diagnostics), remained largely unchanged. Conclusions: Despite a quantitative error by the omission of bone in MR-AC, clinical quality of brain [18F]FDG is not relevantly affected. Thus, brain [18F]FDG PET can already, even now with suboptimal MR-AC, be utilized for clinical routine purposes, even though the MR-AC warrants improvement.
|
370 |
Novel methods for scatter correction and dual energy imaging in cone-beam CTDong, Xue 22 May 2014 (has links)
Excessive imaging doses from repeated scans and poor image quality mainly due to scatter contamination are the two bottlenecks of cone-beam CT (CBCT) imaging. This study investigates a method that combines measurement-based scatter correction and a compressed sensing (CS)-based iterative reconstruction algorithm to generate scatter-free images from low-dose data. Scatter distribution is estimated by interpolating/extrapolating measured scatter samples inside blocked areas. CS-based iterative reconstruction is finally carried out on the under-sampled data to obtain scatter-free and low-dose CBCT images. In the tabletop phantom studies, with only 25% dose of a conventional CBCT scan, our method reduces the overall CT number error from over 220 HU to less than 25 HU, and increases the image contrast by a factor of 2.1 in the selected ROIs. Dual-energy CT (DECT) is another important application of CBCT. DECT shows promise in differentiating materials that are indistinguishable in single-energy CT and facilitates accurate diagnosis. A general problem of DECT is that decomposition is sensitive to noise in the two sets of projection data, resulting in severely degraded qualities of decomposed images. The first study of DECT is focused on the linear decomposition method. In this study, a combined method of iterative reconstruction and decomposition is proposed. The noise on the two initial CT images from separate scans becomes well correlated, which avoids noise accumulation during the decomposition process. To fully explore the benefits of DECT on beam-hardening correction and to reduce the computation cost, the second study is focused on an iterative decomposition method with a non-linear decomposition model for noise suppression in DECT. Phantom results show that our methods achieve superior performance on DECT imaging, with respect to noise reduction and spatial resolution.
|
Page generated in 0.0544 seconds