• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 700
  • 223
  • 199
  • 91
  • 75
  • 48
  • 25
  • 23
  • 17
  • 16
  • 15
  • 15
  • 14
  • 11
  • 10
  • Tagged with
  • 1738
  • 537
  • 245
  • 183
  • 165
  • 153
  • 153
  • 125
  • 114
  • 108
  • 107
  • 94
  • 80
  • 78
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Aerodynamika axiálních větrných turbín / Aerodynamics of axial wind turbines

Just, Jan January 2013 (has links)
This master thesis concerns about problematics of wind turbines. The document summarizes basic theory based on the law of momentum conservation which is essential tool for the design and calculation of wind turbines. The theory is complemented by number of correction factors and then used in the design of wind turbine for specific parameters. The calculation is performed iteratively using Matlab software and the actual code is given in appendix. Graphs summarizing the progress of various units along the blades are presented in the document. The final section briefly describes advanced topics of aerodynamics concerning other important factors that the field of wind energy deal with in recent time.
352

Correction de données de séquençage de troisième génération / Error correction of third-generation sequencing data

Morisse, Pierre 26 September 2019 (has links)
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain. / The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome.
353

Modélisation du facteur de correction beta en indentation instrumentée. / Modelling of the beta correction factor in instrumented indentation test.

GARCíA GUZMáN, Jaime 26 September 2017 (has links)
Avec l’avènement des NEMS, MEMS, films minces et autres revêtements, la caractérisation des propriétés mécaniques à uneéchelle locale est primordiale. A cet effet, l’essai d’indentation instrumentée permet l’acquisition continue de la réponse (courbeforce – profondeur de pénétration) d’un matériau à la pénétration d’un indenteur de géométrie donnée. Le post-traitement d’unetelle courbe permet la détermination de propriétés telles que le module d’indentation ou la dureté. Cette analyse est basée surla théorie du contact élastique, qui suppose une géométrie axisymétrique parfaite de la pointe d’indentation, un comportementpurement élastique du matériau, et la non-prise en compte des déplacements radiaux dans la zone de contact. En pratique, ceshypothèses sont souvent mises en défaut : les indenteurs sont généralement des pyramides à 3 pans (Berkovich, Cube Corner)ou 4 pans (Vickers, Knoop) présentant un émoussement de la pointe, et le comportement mécanique des matériaux est souventcomplexe. La correction de la relation de Sneddon, utilisée dans la méthode d’Oliver et Pharr pour l’analyse des essais denanoindentation, est donc nécessaire. Dans le cadre de cette thèse, nous nous sommes intéressés à la détermination de ce facteurde correction, qui n’est pas une valeur universelle ni unique comme le préconisent certains auteurs. Il dépend notamment de lapression exercée par la pointe d’indentation et du matériau sollicité. Cette étude s’est faite sur la base de la détermination de laloi de comportement d’un des matériaux standards utilisés pour la calibration de l’essai de nanoindentation, la silice fondue.Ce matériau présente un comportement mécanique spécifique : sa déformation anélastique s’effectue par un mécanisme dedensification. Dans un premier temps, les paramètres de cette loi de comportement sont identifiés par une approche inversecombinant la simulation numérique 3D de l’essai d’indentation à l’optimisation de la fonction objectif au moyen d’unalgorithme génétique. Le facteur de correction est ensuite déterminé pour deux géométries de pointes et à différentes valeursdu rapport adimensionnel "profondeur de pénétration/rayon de pointe". La méthodologie proposée a été appliquée à ladétermination du module d’indentation d’un acier inox. / With the advent of NEMS, MEMS, thin films and other coatings, the characterization of local mechanical properties is achallenge. For this purpose, the instrumented indentation test allows for the continuous acquisition of the response (loadpenetration depth) of the material using an indenter of given geometry. The post-processing of such a curve allows thedetermination of the indentation modulus or the hardness of that material. This analysis relies on the elastic contact theory,which assumes an axisymmetric and perfect indenter, a purely elastic behaviour, and no radial displacements in the contactarea. In practice, those assumptions are defeated: indenters shapes are rather three-sided (Berkovich, Cube Corner) or foursided (Vickers, Knoop) pyramids, with blunted tips. Furthermore, mechanical behaviour is rather complex. The introductionof a correction factor in the Sneddon’s relationship, on which is based the Oliver and Pharr method for the analysis ofnanoindentation data is then necessary. Whithin the scope of this work, we aimed at determining this correction factor, whichhas not a unique nor a universal value, as recommended by some authors. It depends on the pressure distribution beneath theindenter and on the tested material. This study is based on the identification of the constitutive law of one of the referencespecimen used for calibration of the nanoindentation test, namely fused silica. The latter exhibits a specific mechanicalbehaviour, its anelastic deformation being achieved by a densification mechanism. In a first step we have determined the modelparameters by an inverse approach combining the 3D numerical simulation of the indentation test with the optimization of theobjective function using a genetic algorithm. The correction factor is then determined for two tip geometries and at severalpenetration depth over tip radius adimensional ratios. The proposed methodology was applied to the determination of theindentation modulus of an inox steel.
354

Les dépenses en infrastructures publiques et la croissance économique : Le cas de la Mauritanie / Public infrastructure spending and economic growth : The case of Mauritania

El Moctar Ellah Taher, Mohamed 21 November 2017 (has links)
Si la majorité des études obtiennent des impacts positifs des infrastructures publiques sur l’activité économique, la problématique entre dépenses publiques et bonne affectation de ressources reste présente. Cette thèse empirique présente un travail inédit pour la Mauritanie et se limite sur trois types d’infrastructures. En premier lieu, nous étudions le lien entre l’évolution du stock routier total, et le PIB par tête à travers une fonction de production de type Coob-Douglas. Notre résultat principal est le suivant : le stock routier en Mauritanie a bien impacté le PIB par tête de manière positive et significative. En second lieu, nous analysons la contribution du capital santé à la croissance économique. En estimant plusieurs modèles, trois principaux résultats émergent : 1) Le niveau des dépenses publiques de santé n’a pas d’effet significatif sur la croissance de l’espérance de vie, mais elles semblent avoir des impacts positifs sur la réduction de la mortalité brut pour 1000 personnes. 2) Les dépenses publiques de santé ont un effet positif sur le PIB global, mais cet effet devient non significatif lorsqu’il s’agit du PIB par tête. 3) L’espérance de vie initiale, et sa croissance ont des effets positifs et significatifs sur le PIB par tête. Enfin, nous explorons l’impact de TIC sur la croissance économique. En étudiant une fonction de production et un modèle VAR, Nous mettons en évidence à la fois que le capital TIC, et l’évolution des abonnés au téléphone fixe ont stimulé significativement l’activité économique. / While the majority of studies obtain positive impacts of public infrastructure on economic activity, the problem between public spending and good resource allocation remains.This empirical thesis presents an unpublished work for Mauritania and is limited to three types of infrastructure.First, we study the relationship between the evolution of the total road stock and the per capita GDP through a Coob-Douglas production function.Our main result is that the road stock in Mauritania has impacted the GDP per capita in a positive and significant way.Second, we analyze the contribution of health capital to economic growth. In estimating several models, three main results emerge: 1) The level of public health spending has no significant effect on the growth of life expectancy, but appears to have positive impacts on the reduction of gross mortality per 1000 people. 2) Public expenditure on health has a positive effect on overall GDP, but this effect becomes insignificant when it comes to GDP per capita.3) Initial life expectancy and its growth have positive and significant effects on GDP per capita.Finally, we explore the impact of ICT on economic growth.By studying a production function and a VAR model, we show that ICT capital and the evolution of fixed telephone subscribers have significantly stimulated economic activity.
355

Intercomparaison et développement de modèles statistiques pour la régionalisation du climat / Intercomparison and developement of statistical models for climate downscaling

Vaittinada ayar, Pradeebane 22 January 2016 (has links)
L’étude de la variabilité du climat est désormais indispensable pour anticiper les conséquences des changements climatiques futurs. Nous disposons pour cela de quantité de données issues de modèles de circulation générale (GCMs). Néanmoins, ces modèles ne permettent qu’une résolution partielle des interactions entre le climat et les activités humaines entre autres parce que ces modèles ont des résolutions spatiales souvent trop faibles. Il existe aujourd’hui toute une variété de modèles répondant à cette problématique et dont l’objectif est de générer des variables climatiques à l’échelle locale àpartir de variables à grande échelle : ce sont les modèles de régionalisation ou encore appelés modèles de réduction d’échelle spatiale ou de downscaling en anglais.Cette thèse a pour objectif d’approfondir les connaissances à propos des modèles de downscaling statistiques (SDMs) parmi lesquels on retrouve plusieurs approches. Le travail s’articule autour de quatre objectifs : (i) comparer des modèles de réduction d’échelle statistiques (et dynamiques), (ii) étudier l’influence des biais des GCMs sur les SDMs au moyen d’une procédure de correction de biais, (iii) développer un modèle de réduction d’échelle qui prenne en compte la non-stationnarité spatiale et temporelle du climat dans un contexte de modélisation dite spatiale et enfin, (iv) établir une définitiondes saisons à partir d’une modélisation des régimes de circulation atmosphérique ou régimes de temps.L’intercomparaison de modèles de downscaling a permis de mettre au point une méthode de sélection de modèles en fonction des besoins de l’utilisateur. L’étude des biais des GCMs révèle une influence indéniable de ces derniers sur les sorties de SDMs et les apports de la correction des biais. Les différentes étapes du développement d’un modèle spatial de réduction d’échelle donnent des résultats très encourageants. La définition des saisons par des régimes de temps se révèle être un outil efficace d’analyse et de modélisation saisonnière.Tous ces travaux de “Climatologie Statistique” ouvrent des perspectives pertinentes, non seulement en termes méthodologiques ou de compréhension de climat à l’échelle locale, mais aussi d’utilisations par les acteurs de la société. / The study of climate variability is vital in order to understand and anticipate the consequences of future climate changes. Large data sets generated by general circulation models (GCMs) are currently available and enable us to conduct studies in that direction. However, these models resolve only partially the interactions between climate and human activities, namely du to their coarse resolution. Nowadays there is a large variety of models coping with this issue and aiming at generating climate variables at local scale from large-scale variables : the downscaling models.The aim of this thesis is to increase the knowledge about statistical downscaling models (SDMs) wherein there is many approaches. The work conducted here pursues four main goals : (i) to discriminate statistical (and dynamical) downscaling models, (ii) to study the influences of GCMs biases on the SDMs through a bias correction scheme, (iii) to develop a statistical downscaling model accounting for climate spatial and temporal non-stationarity in a spatial modelling context and finally, (iv) to define seasons thanks to a weather typing modelling.The intercomparison of downscaling models led to set up a model selection methodology according to the end-users needs. The study of the biases of the GCMs reveals the impacts of those biases on the SDMs simulations and the positive contributions of the bias correction procedure. The different steps of the spatial SDM development bring some interesting and encouraging results. The seasons defined by the weather regimes are relevant for seasonal analyses and modelling.All those works conducted in a “Statistical Climatologie” framework lead to many relevant perspectives, not only in terms of methodology or knowlegde about local-scale climate, but also in terms of use by the society.
356

Attenueringskorrektion för ett rörelsekorrigerande neuralt nätverk i PET-undersökningar / Attenuation Correction for a Motion Correcting Neural Network in PET Imaging

Nissolle, David, Karlström, Daniel January 2023 (has links)
Positronemissionstomografi är en väl använd modalitet som kan hjälpa till att ge information om olika organs tillstånd. Ett problem som kan uppstå när man utför undersökningar är att patientrörelser, i synnerhet andning, förvränger de resulterande bilderna. Detta är ett vanligt problem och kan leda till komplikationer som inkorrekt diagnos och i sin tur felbehandling. Om rörelsen är för kraftig kan det till och med göra bilden värdelös, vilket tvingar patienten att genomgå en ny examination som är kostsam både för patientens hälsa och för sjukhuset som utför undersökningen. För att förhindra att detta inträffar har flera studier gjorts för att anpassa bilderna så att även om patienten rör sig skulle undersökningen fortfarande ge acceptabla bilder. Detta projekt är en fortsättning på det arbete som gjorts av en annan student på CBH-skolan vid KTH, som för sin masteruppsats tränade en djupinlärningsmodell att korrigera för patientrörelser. Denna modell tränades uteslutande på PET-fantomer och inte attenuerad data som genererats i simuleringar. I detta projekt prövades och implementerades tre olika metoder för att ta fram attenueringsmappar med hjälp av modellen för att utföra både rörelse- och attenueringskorrektion. Resultaten visade att metoden som direkt tillämpade deformationen mellan attenueringskarta och respektive PET-gate var överlägsen de andra, men den kunde fortfarande inte återge korrigerade bilder där lesionerna som fanns på fantomen är tydligt synliga. / Positron emission tomography is a widely used modality that can help provide information about how various parts of the body are functioning. An issue that can occur when performing these examinations is patient movement, usually breathing, distorting the resulting images. This is a common issue and can lead to complications such as misdiagnosis and in turn mistreatment. If the movement is too significant it can even render the scan useless, forcing the patient to undergo a new scan which is costly both for the patient’s health and for the hospital performing the examination. To prevent this from happening several methods have been tried to adapt the images so that even if the patient moved the scan would still produce acceptable images.  This project is a continuation of the work done by another student on the CBH-school at KTH who, for his master’s thesis, trained a deep-learning model to correct for patient movement. This model was trained exclusively on PET phantoms and not attenuated data generated in simulations. In this project three different methods were tested and implemented to acquire attenuation maps that could be used to perform movement- and attenuation correction. The results showed that the method that directly applied the deformation between attenuation map and respective PET-gate was superior to the others, but it could still not reconstruct corrected images with the lesions that were originally visible on the phantom.
357

The Nordic Prediction Method For Railway Traffic Noise : Improvements of the current corrections forrailway bridges, switches and crossings

HELGADÓTTIR, KRISTÍN, BJÖRNSDÓTTIR, RAGNHEIÐUR January 2019 (has links)
Railway noise is a very important and growing health hazard in today´s society.Railway systems pass through towns and cities and create noise. When trainsride through or over railway bridges, switches and crossings the noise increasessubstantially, causing great annoyance to the residents in the area.At the present time, acoustic regulations exist in most countries and are set to achievea good environmental quality in residential areas, schools, hospitals, offices andhotels.A few calculation models exist for railway traffic noise, such as The NPM 1996,NORD2000 and Cnossos-EU. The NPM 1996 is currently used in Sweden to calculatenoise propagation from railway traffic. To uphold the regulations set, it is importantthat the method used is as precise as possible. All of these calculation modelsare based on several correction factors. Today, the current corrections for trackconditions, that is railway bridges, switches and crossings, are not very accurate andneed to be reconsidered.The aim of this project was to investigate and quantify the error of the NPM correctionfactors and give some indication of how they should be adjusted. This is done to makethe noise prediction from railway traffic more accurate and thus protect the residentsfrom these health risks.The specific objective was to perform significant amount of field measurements ofnoise from trains on different steel bridges, switches and crossings, as well as on afew concrete bridge according to the measurement standard Nordtest NT 098. Thefield work was carried out over the period March to May, when weather conditionsmet the criteria for field measurements, in and around the Stockholm area.The results obtained revealed that the correction factors for steel bridges andcrossings are considerably lower in the NPM than measured in this project. However,the correction factors for switches and concrete bridges are similar to the ones inthe NPM. In this thesis, a part of the correction factors have only been invalidatedto a degree. It has been shown that each bridge is unique and perhaps there is apossibility of finding similarities between some type of bridges. However, much moreiv |measurements are needed to see any correlation between each bridge type. Thus,further and more comprehensive measurements have to be carried out in order toestablish new accurate correction factors for track conditions in the Nordic PredictionMethod.
358

Runtime Adaptive Scrubbing in Fault-Tolerant Network-on-Chips (NoC) Architectures

Boraten, Travis H. 09 June 2014 (has links)
No description available.
359

Essays in applied demand and production analysis

Zereyesus, Yacob Abrehe January 1900 (has links)
Doctor of Philosophy / Department of Agricultural Economics / Vincent R. Amanor-Boadu / This dissertation is composed of two essays in applied microeconomics. Using farm level data, the first essay applied nonparametric methods to test the adherence of individual farm’s production choices to profit maximization objective. Results indicate that none of the farms consistently satisfy the joint hypothesis of profit maximization. The study took into account the uncertainty prevalent in agricultural production by systematically modeling the optimization behavior of farms. Departures of observed data of individual farms from profit maximization objectives were attributed more due to stochastic influences caused by output production decisions than input use decisions. Results also support the existence of technological progress during the study period for Kansas farms. At an alpha level of 5%, assuming both input and output quantities as stochastic, only 5.3% of the farms violated the joint hypothesis of profit maximization with standard error exceeding 10%. Whereas when only input quantities are considered stochastic, a total of 71.73% and 2.09% of the farms had minimum standard errors of greater than 10% and 20% respectively required for the joint profit maximization hypothesis to hold. When only output quantity measurements were assumed as stochastic, a total of 80.10 % and 18.84 % of the farms had minimum standard errors of greater than 10% and 20% respectively required for the profit maximization hypothesis to hold. The second essay examines the demand for alcoholic beverages (beer, wine and distilled spirits) for the U.S. using time series data from 1979-2006. The estimation is done using an error correction form of the Almost Ideal Demand System . Results indicate that there is a significant difference between short run and long run elasticity estimates. The paper addresses the exogeneity of log of prices and log of real expenditures. For the beer and wine equations, the hypothesis of joint exogeneity of price index and real expenditure cannot be rejected at all the conventional levels of significance. For the spirits equation, the tests strongly reject the simultaneous exogeneity of price index and real expenditure. When independently tested, price index appears to be endogenous variable where as real expenditure seems exogenous variable. Based on these results, the real expenditure was considered as an exogenous variable, where as the price index for spirits as an endogenous variable.
360

Décodeurs rapides pour codes topologiques quantiques

Duclos-Cianci, Guillaume January 2010 (has links)
L'encodage topologique de l'information quantique a attiré beaucoup d'attention, car c'est un modèle qui semble propice à résister aux erreurs locales. Tout d'abord, le modèle du calcul topologique est basé sur la statistique anyonique non-Abélienne universelle et sur son contrôle. Des anyons indésirables peuvent apparaître soudainement, en raison de fluctuations thermiques ou de processus virtuels. La présence de ces anyons peut corrompre l'information encodée, il est nécessaire de les éliminer: la correction consiste à fusionner les défauts tout en préservant la topologie du système. Ensuite, dans le cas des codes topologiques, on doit aussi protéger l'information encodée dans la topologie. En effet, dans ces systèmes, on n'a accès qu'à une fraction de l'information décrivant l'erreur. Elle est recueillie par des mesures et peut être interprétée en termes de particules. Ces défauts peuplent le code et doivent être annihilés adéquatement dans le but de préserver l'information encodée. Dans ce mémoire, nous proposons un algorithme efficace, appelé décodeur, pouvant être utilisé dans les deux contextes décrits ci-haut. Pour y parvenir, cet algorithme s'inspire de méthodes de renormalisation et de propagation de croyance. Il est exponentiellement plus rapide que les méthodes déjà existantes, étant de complexité [Caractères spéciaux omis] (l[indice supérieur 2] log l) en série et, si on parallélise, [Caractères spéciaux omis] (log l) en temps, contre [Caractères spéciaux omis] (l[indice supérieur]6) pour les autres décodeurs. Le temps étant le facteur limitant dans le problème du décodage, cette caractéristique est primordiale. De plus, il tolère une plus grande amplitude de bruit que les méthodes existantes; il possède un seuil de ~ 16.5% sur le canal dépolarisant surpassant le seuil déjà établi de ~ 15.5%. Finalement, il est plus versatile. En effet, en étant limité au code de Kitaev, on ne savait pas décoder les codes topologiques de manière générale (e.g. codes de couleur). Or, le décodeur proposé dans ce mémoire peut traiter la grande classe des codes topologiques stabiliseurs.

Page generated in 0.0946 seconds