Spelling suggestions: "subject:"nonbinary*"" "subject:"onbinary*""
341 |
Models for fitting correlated non-identical bernoulli random variables with applications to an airline data problemPerez Romo Leroux, Andres January 2021 (has links)
Our research deals with the problem of devising models for fitting non- identical dependent Bernoulli variables and using these models to predict fu- ture Bernoulli trials.We focus on modelling and predicting random Bernoulli response variables which meet all of the following conditions:
1. Each observed as well as future response corresponds to a Bernoulli trial
2. The trials are non-identical, having possibly different probabilities of occurrence
3. The trials are mutually correlated, with an underlying complex trial cluster correlation structure. Also allowing for the possible partitioning of trials within clusters into groups. Within cluster - group level correlation is reflected in the correlation structure.
4. The probability of occurrence and correlation structure for both ob- served and future trials can depend on a set of observed covariates.
A number of proposed approaches meeting some of the above conditions are present in the current literature. Our research expands on existing statistical and machine learning methods.
We propose three extensions to existing models that make use of the above conditions. Each proposed method brings specific advantages for dealing with
correlated binary data. The proposed models allow for within cluster trial grouping to be reflected in the correlation structure. We partition sets of trials into groups either explicitly estimated or implicitly inferred. Explicit groups arise from the determination of common covariates; inferred groups arise via imposing mixture models. The main motivation of our research is in modelling and further understanding the potential of introducing binary trial group level correlations. In a number of applications, it can be beneficial to use models that allow for these types of trial groupings, both for improved predictions and better understanding of behavior of trials.
The first model extension builds on the Multivariate Probit model. This model makes use of covariates and other information from former trials to determine explicit trial groupings and predict the occurrence of future trials. We call this the Explicit Groups model.
The second model extension uses mixtures of univariate Probit models. This model predicts the occurrence of current trials using estimators of pa- rameters supporting mixture models for the observed trials. We call this the Inferred Groups model.
Our third methods extends on a gradient descent based boosting algorithm which allows for correlation of binary outcomes called WL2Boost. We refer to our extension of this algorithm as GWL2Boost.
Bernoulli trials are divided into observed and future trials; with all trials having associated known covariate information. We apply our methodology to the problem of predicting the set and total number of passengers who will not show up on commercial flights using covariate information and past passenger data.
The models and algorithms are evaluated with regards to their capac- ity to predict future Bernoulli responses. We compare the models proposed against a set of competing existing models and algorithms using available air- line passenger no-show data. We show that our proposed algorithm extension GWL2Boost outperforms top existing algorithms and models that assume in- dependence of binary outcomes in various prediction metrics. / Statistics
|
342 |
Structure and Dynamics of Binary Mixtures of Soft Nanocolloids and PolymersChandran, Sivasurender January 2013 (has links) (PDF)
Binary mixtures of polymers and soft nanocolloids, also called as polymer nanocomposites are well known and studied for their enormous potentials on various technological fronts. In this thesis blends of polystyrene grafted gold nanoparticles (PGNPs) and polystyrene (PS) are studied experimentally, both in bulk and in thin films. This thesis comprises three parts; 1) evolution of microscopic dynamics in the bulk(chapter-3),2) dispersion behavior of PGNPs in thin and ultra thin polymer matrices (chapter-4) 3) effect of dispersion on the glass transition behavior (chapter-5).
In first part, the state of art technique, x-ray photon correlation spectroscopy is used to study the temperature and wave vector dependent microscopic dy¬namics of PGNPs and PGNP-PS mixtures. Structural similarities between PGNPs and star polymers (SPs) are shown using small angle x-ray scatter¬ing and scaling relations. We find unexpected (when compared with SPs) non-monotonic dependence of the structural relaxation time of the nanoparticles with functionality (number of arms attached to the surface). Role of core-core attractions in PGNPs is shown and discussed to be the cause of anomalous behavior in dynamics. In PGNP-PS mixtures, we find evidence of melting of the dynamically arrested state of the PGNPs with addition of PS followed by a reentrant slowing down of the dynamics with further increase in polymer frac¬tion, depending on the size ratio(δ)of PS and PGNPs. For higher δ the reen¬trant behavior is not observed with polymer densities explored here. Possible explanation of the observed dynamics in terms of the presence of double-glass phase is provided. The correlation between structure and reentrant vitrifica¬tion in both pristine PGNPs and blends are derived rather qualitatively.
In the second part, the focus is shifted to miscibility between PGNPs and polymers under confinement i.e., in thin films. This chapter provide a compre¬hensive study on the different parameters affecting dispersion viz., annealing conditions, fraction of the added particles, polymer-particle interface and more importantly the thickness of the films. Changes in the dispersion behavior with annealing is shown and the need for annealing the films at temperatures higher than the glass transition temperature of the matrix polymers is clearly elucidated. Irrespective of the thickness of the films( 20 and 65 nm) studied, immiscible particle-polymer blends unequivocally prove the presence of gradi¬ent in dynamics along the depth of the films. To our knowledge for the first time, we report results on confinement induced enhancement in the dispersion of the nanoparticles in thin polymer films. The enhanced dispersion is argued to be facilitated by the increased free volume in the polymer due to confinement as shown by others. Based on these results we have proposed a phase diagram for dispersibility of the nanoparticles in polymer films. The phase diagram for ultra thin films highlights an important point: In ultra thin films the particles are dispersed even with grafting molecular weight less than matrix molecular weight.
In the third part, we have studied the glass transition of the thin films whose structure has been studied earlier in the earlier part. Non-monotonic variation in glass transition with the fraction of particles in thin films has increased our belief on the gradient in the dynamics of thin polymer films. En¬hanced dispersion with confinement is captured with the enhanced deviation in glass transition temperature of ultra thin films. Effect of miscibility param¬eter on Tgis studied and the results are explained with the subtle interplay of polymer-particle interface and confinement.
|
343 |
Codes LDPC non-binaire de nouvelle generationShams, Bilal 08 December 2010 (has links) (PDF)
Dans cette thèse, nous présentons nos travaux dans le domaine des algorithmes de décodage des codes LDPC non-binaires généralisés. Les codes LDPC binaires ont été initialement proposés par Gallager en 1963, et après quelques avancées théoriques fondamentales, ils ont été proposés dans des standards tels que DVB-S2, WI-MAX, DSL, W-LAN etc. Plus tard, les codes LDPC non-binaires (NB-LDPC) ont été pro- posés dans la littérature, et ont montré une meilleure performance pour de petites tailles de code ou lorsqu'ils sont utilisés sur des canaux non-binaires. Cependant, les avan- tages de l'utilisation de codes NB-LDPC impliquent une augmentation importante de la complexité de décodage. Pour un code défini dans un corps de Galois GF (q), la complexité est d'ordre O (q2). De même, la mémoire requise pour le stockage des messages est d'ordre O (q). Ainsi, l'implémentation d'un décodeur LDPC défini sur un corps de Galois pour q > 64 devient impossible dans la pratique. L'objectif prin- cipal de cette thèse est de développer des algorithmes avec une bonne performance et complexité réduite de sorte qu'ils deviennent implémentables. Pour une performance de décodage optimisée, non seulement l'algorithme est important, mais également la structure du code joue un rôle clé. Avec cet objectif à l'esprit, une nouvelle famille de codes appelés " cluster-NB-LDPC codes " a été élaborée ainsi que des améliorations spécifiques du décodeur non-binaire pour ces codes. Le résultat principal est que nous avons pu proposer des décodeurs pour les codes cluster-NB-LDPC avec une complex- ité réduite par rapport aux décodeurs classiques pour les codes NB-LDPC définis sur les corps de Galois, sans aucune perte de performance dans la capacité de correction vi Résumé d'erreur. Dans la première partie de la thèse, nous avons modifié l'algorithme EMS pour les cluster-codes. La généralisation directe de l'algorithme EMS aux codes cluster-NB- LDPC n'est pas réaliste . Il y a une perte de performance et une augmentation de la complexité. Par conséquent, nous proposons quelques modifications dans la procé- dure, qui non seulement améliore considérablement les performances de décodage, mais diminue également la complexité. Au niveau des noeuds de parité, cet algo- rithme conserve les mêmes limites sur le nombre d'opérations que l'algorithme EMS pour GF (q)-codes, O (nmlognm) avec nm << q. Nous proposons ensuite une autre méthode, basée sur la diversité des codes cluster, afin d'améliorer les performances de l'algorithme EMS pour les codes cluster-LDPC. Il contribue également à réduire la complexité globale du décodeur. Finalement, nous comparons les performances de décodage en utilisant cette méthode et analysons l'effet sur la complexité de décodage. Dans la dernière partie du chapitre, nous proposons une nouvelle direction pour le décodage des codes LDPC. Elle est basée sur la création des listes des mots de code qui correspondent à des noeuds de parité. Les listes sont construite de manière récur- sive dans une structure en arbre, ce qui en fait un bon candidat pour l'implémentation matérielle. Il s'agit d'une méthode nouvelle et doit encore être améliorée mais à pre- miére vue nous avons obtenu de bons résultats avec un nombre réduit d'operations.
|
344 |
Studies On Momentum, Heat And Mass Transfer In Binary Alloy Solidification ProcessesChakraborty, Suman 09 1900 (has links)
The primary focus of the present work is the development of macro-models for numerical simulation of binary alloy solidification processes, consistent with microscopic phase-change considerations, with a particular emphasis on capturing the effects of non-equilibrium species redistribution on overall macrosegregation behaviour. As a first step, a generalised macroscopic framework is developed for mathematical modelling of the process. The complete set of equivalent single-phase governing equations (mass, momentum, energy and species conservation) are solved following a pressure-based Finite Volume Method according to the SIMPLER algorithm. An algorithm is also developed for the prescription of the coupling between temperature and the melt-fraction.
Based on the above unified approach of solidification modelling, a macroscopic numerical model is devised that is capable of capturing the interaction between the double-diffusive convective field and a localised fluid flow on account of solutal undercooling during non-equilibrium solidification of binary alloys. Numerical simulations are performed for the case of two-dimensional transient solidification of Pb-Sn alloys, and the simulation results are also compared with the corresponding experimental results quoted in the literature. It is observed that non-equilibrium effects on account of solutal undercooling result in an enhanced macrosegregation. Next, the model is extended to capture the effects of dendritic arm coarsening on the macroscopic transport phenomena occurring during a binary alloy solidification process. The numerical results are first tested against experimental results quoted in the literature, corresponding to the solidification of an Al-Cu alloy in a bottom-cooled cavity. It is concluded that dendritic arm coarsening leads to an increased effective permeability of the mushy region as well as an enhanced eutectic fraction of the solidified ingot. Consequently, an enhanced macrosegregation can be predicted as compared to that dictated by shrinkage-induced fluid flow alone.
For an order-of-magnitude assessment of predictions from the numerical models, a systematic approach is subsequently developed for scaling analysis of momentum, heat and species conservation equations pertaining to the case of solidification of a binary mixture. A characteristic velocity scale inside the mushy region is derived, in terms of the morphological parameters of the two-phase region. A subsequent analysis of the energy equation results in an estimation of the solid layer thickness. It is also shown from scaling principles that non-equilibrium effects result in an enhanced macro-segregation compared to the case of an equilibrium model For the sake of assessment of the scaling analysis, the predictions are validated against computational results corresponding to the simulation of a full set of governing equations, thus confirming the trends suggested by the scale analysis.
In order to analytically investigate certain limiting cases of unidirectional alloy solidification, a fully analytical solution technique is established for the solution of unidirectional, conduction-dominated, alloy solidification problems. The results are tested for the problem of solidification of an ammonium chloride-water solution, and are compared with those from existing analytical models as well as with the corresponding results from a fully numerical simulation. The effects of different microscopic models on solidification behaviour are illustrated, and transients in temperature and heat flux distribution are also analysed. An excellent agreement between the present solutions and results from the computational simulation can be observed.
The generalised numerical model is subsequently utilised to investigate the effects of laminar double-diffusive Rayleigh-Benard convection on directional solidification of binary fluids, when cooled and solidified from the top. A series of experiments is also performed with ammonium chloride-water solutions of hypoeutectic and hypereutectic composition, so as to facilitate comparisons with numerical predictions. While excellent agreements can be obtained for the first case, the second case results in a peculiar situation, where crystals nucleated on the inner roof of the cavity start descending through the bulk fluid, and finally settle down at the bottom of the cavity in the form of a sedimented solid layer. An eutectic solidification front subsequently progresses from the top surface vertically downwards, and eventually meets the heap of solid crystals collected on the floor of the cavity. However, comparison of experimental observations with corresponding numerical results from the present model is not possible under this situation, since the associated transport process involves a complex combination of a number of closely interconnected physical mechanisms, many of which are yet to be resolved.
Subsequent to the development of the mathematical model and experimental arrangements for macroscopic transport processes during an alloy solidification process, some of the important modes of double-diffusive instability are analytically investigated, as a binary alloy of any specified initial composition is directionally solidified from the top. By employing a close-formed solution technique, the critical liquid layer heights corresponding to the onset of direct mode of instability are identified, corresponding two a binary alloy with three different initial compositions.
In order to simulate turbulent transport during non-equilibrium solidification processes of binary alloys, a modified k-8 model is subsequently developed. Particular emphasis is given for appropriate modelling of turbulence parameters, so that the model merges with single-phase turbulence closure equations in the pure liquid region in a smooth manner. Laboratory experiments are performed using an ammonium chloride-water solution that is solidified by cooling from the top of a rectangular cavity. A good agreement between numerical and experimental results is observed.
Finally, in order to study the effects of three-dimensionality in fluid flow on overall macrosegregation behaviour, the interaction between double-diffusive convection and non-equilibrium solidification of a binary mixture in a cubic enclosure (cooled from a side) is numerically investigated using a three-dimensional transient mathematical model. Investigations are carried out for two separate model systems, one corresponding to a typical metal-ally analogue system and other corresponding to an actual metal-alloy system. As a result of three-dimensional convective flow-patterns, a significant solute macrosegregation is observed in the transverse sections of the cavity, which cannot be captured by two-dimensional simulations.
|
345 |
Monte Carlo methods for sampling high-dimensional binary vectors / Monte Carlo séquentiel pour le choix de modèle bayésien : théorie et méthodesSchäfer, Christian 14 November 2012 (has links)
Cette thèse est consacrée à l'étude des méthodes de Monte Carlo pour l'échantillonnage de vecteurs binaires de grande dimension à partir de lois cibles complexes. Si l'espace-état est trop grand pour une énumération exhaustive, ces méthodes permettent d'estimer l’espérance d’une loi donnée par rapport à une fonction d'intérêt. Les approches standards sont principalement basées sur les méthodes Monte Carlo à chaîne de Markov de type marche aléatoire, où la loi stationnaire de la chaîne est la distribution d’intérêt et la moyenne de la trajectoire converge vers l’espérance par le théorème ergodique. Nous proposons un nouvel algorithme d'échantillonnage basé sur les méthodes de Monte Carlo séquentielles qui sont plus robustes au problème de multimodalité grâce à une étape de recuit simulé. La performance de l'échantillonneur de Monte Carlo séquentiel dépend de la capacité d’échantillonner selon des lois auxiliaires qui sont, en un certain sens, proche à la loi de l'intérêt. Le travail principal de cette thèse présente des stratégies visant à construire des familles paramétriques pour l'échantillonnage de vecteurs binaires avec dépendances. L'utilité de cette approche est démontrée dans le cadre de sélection bayésienne de variables et l'optimisation combinatoire des fonctions pseudo-booléennes. / This thesis is concerned with Monte Carlo methods for sampling high-dimensional binary vectors from complex distributions of interest. If the state space is too large for exhaustive enumeration, these methods provide a mean of estimating the expected value with respect to some function of interest. Standard approaches are mostly based on random walk type Markov chain Monte Carlo, where the equilibrium distribution of the chain is the distribution of interest and its ergodic mean converges to the expected value. We propose a novel sampling algorithm based on sequential Monte Carlo methodology which copes well with multi-modal problems by virtue of an annealing schedule. The performance of the proposed sequential Monte Carlo sampler depends on the ability to sample proposals from auxiliary distributions which are, in a certain sense, close to the current distribution of interest. The core work of this thesis discusses strategies to construct parametric families for sampling binary vectors with dependencies. The usefulness of this approach is demonstrated in the context of Bayesian variable selection and combinatorial optimization of pseudo-Boolean objective functions.
|
346 |
A Hierarchical Modelling and Evaluation Technique for Safety Critical Systems / Une technique hiérarchique pour la modélisation et l'évaluation des systèmes de sécurité fonctionnellePock, Michael 30 March 2012 (has links)
Cette thèse présente une nouvelle approche pour la modélisation des systèmes de sécurité fonctionnelle qui prend en compte plusieurs modes de défaillance pour les composants et le système global. Les diagrammes de flux d'information (IFDs) ont été initialement développé dans un thèse précédent. Dans ce travail, l'évaluation si l'approche flux d'information être rendue plus efficace par utiliser les diagrammes de décision binaires (BDD).Cette thèse sera d'expliquer pourquoi ce modèle est nécessaire et pratique, suivie d'une explication détaillée des IFDs. Cela inclut sa structure hiérarchique et comment ce modèle peut être appliqué.La prochaine étape est la formalisation du modèle IFD original pour permettre l'utilisation des techniques d'évaluation plus efficaces. Il sera expliqué pourquoi ces étapes de formalisation ont été prises et les avantages de leur utilisation.Ensuite une explication détaillée des algorithmes développés est présenté. Ces algorithmes sont basés sur une combinaison de différentes techniques de BDD. Zero Suppressed BDDs (ZBDDs) sont combinées avec des Boolean Expression Diagrams (BEDs). En outre, la structure des IFD est utilisé pour construire un BDD global sur plusieurs petits BDDs. Cela augmente l'efficacité du processus d'évaluation.Les techniques présentées sont évaluées par l'analyse de plusieurs cas d'utilisation qui sont expliqués dans ce travail / This thesis presents a novel approach for modelling safety critical systems which takes into account several failure modes both for components and the global system. The so called Information Flow Diagrams (IFDs) were originally developed in a previous PhD-thesis. In this work, the evaluation if the IFD-approach should be made more efficient by using Binary Decision Diagrams (BDDs).This thesis will explain why such a model is necessary and practical, followed by a detailed explanation of the IFD-model. This includes its hierarchical structure and how this model can be applied. The next step is to formalise the original IFD-model in order to enable more efficient evaluation techniques. It will be explained why these formalisation steps were taken and what was gained by using them. Afterwards a detailed explanation of the developed algorithms is presented. These algorithms are based on a combination of different BDD-techniques. Zero Suppressed BDDs (ZBDDs) are combined with Boolean Expression Diagrams (BEDs). Furthermore, the structure of the IFDs is used in order to construct a large BDD out of several smaller BDDs. This increases the efficiency of the evaluation process.The presented techniques are evaluated by analysing several use cases which are explained in this work
|
347 |
Décomposition booléenne des tableaux multi-dimensionnels de données binaires : une approche par modèle de mélange post non-linéaire / Boolean decomposition of binary multidimensional arrays using a post nonlinear mixture modelDiop, Mamadou 14 December 2018 (has links)
Cette thèse aborde le problème de la décomposition booléenne des tableaux multidimensionnels de données binaires par modèle de mélange post non-linéaire. Dans la première partie, nous introduisons une nouvelle approche pour la factorisation booléenne en matrices binaires (FBMB) fondée sur un modèle de mélange post non-linéaire. Contrairement aux autres méthodes de factorisation de matrices binaires existantes, fondées sur le produit matriciel classique, le modèle proposé est équivalent au modèle booléen de factorisation matricielle lorsque les entrées des facteurs sont exactement binaires et donne des résultats plus interprétables dans le cas de sources binaires corrélées, et des rangs d'approximation matricielle plus faibles. Une condition nécessaire et suffisante d'unicité pour la FBMB est également fournie. Deux algorithmes s'appuyant sur une mise à jour multiplicative sont proposés et illustrés dans des simulations numériques ainsi que sur un jeu de données réelles. La généralisation de cette approche au cas de tableaux multidimensionnels (tenseurs) binaires conduit à la factorisation booléenne de tenseurs binaires (FBTB). La démonstration de la condition nécessaire et suffisante d’unicité de la décomposition booléenne de tenseurs binaires repose sur la notion d'indépendance booléenne d'une famille de vecteurs. L'algorithme multiplicatif fondé sur le modèle de mélange post non-linéaire est étendu au cas multidimensionnel. Nous proposons également un nouvel algorithme, plus efficace, s'appuyant sur une stratégie de type AO-ADMM (Alternating Optimization -ADMM). Ces algorithmes sont comparés à ceux de l'état de l'art sur des données simulées et sur un jeu de données réelles / This work is dedicated to the study of boolean decompositions of binary multidimensional arrays using a post nonlinear mixture model. In the first part, we introduce a new approach for the boolean factorization of binary matrices (BFBM) based on a post nonlinear mixture model. Unlike the existing binary matrix factorization methods, the proposed method is equivalent to the boolean factorization model when the matrices are strictly binary and give thus more interpretable results in the case of correlated sources and lower rank matrix approximations compared to other state-of-the-art algorithms. A necessary and suffi-cient condition for the uniqueness of the BFBM is also provided. Two algorithms based on multiplicative update rules are proposed and tested in numerical simulations, as well as on a real dataset. The gener-alization of this approach to the case of binary multidimensional arrays (tensors) leads to the boolean factorisation of binary tensors (BFBT). The proof of the necessary and sufficient condition for the boolean decomposition of binary tensors is based on a notion of boolean independence of binary vectors. The multiplicative algorithm based on the post nonlinear mixture model is extended to the multidimensional case. We also propose a new algorithm based on an AO-ADMM (Alternating Optimization-ADMM) strategy. These algorithms are compared to state-of-the-art algorithms on simulated and on real data
|
348 |
High-Efficiency Self-Adjusting Switched Capacitor DC-DC Converter with Binary ResolutionKushnerov, Alexander 04 March 2010 (has links) (PDF)
Switched-Capacitor Converters (SCC) suffer from a fundamental power loss deficiency which make their use in some applications prohibitive. The power loss is due to the inherent energy dissipation when SCC operate between or outside their output target voltages. This drawback was alleviated in this work by developing two new classes of SCC providing binary and arbitrary resolution of closely spaced target voltages. Special attention is paid to SCC topologies of binary resolution. Namely, SCC systems that can be configured to have a no-load output to input voltage ratio that is equal to any binary fraction for a given number of bits. To this end, we define a new number system and develop rules to translate these numbers into SCC hardware that follows the algebraic behavior. According to this approach, the flying capacitors are automatically kept charged to binary weighted voltages and consequently the resolution of the target voltages follows a binary number representation and can be made higher by increasing the number of capacitors (bits). The ability to increase the number of target voltages reduces the spacing between them and, consequently, increases the efficiency when the input varies over a large voltage range. The thesis presents the underlining theory of the binary SCC and its extension to the general radix case. Although the major application is in step-down SCC, a simple method to utilize these SCC for step-up conversion is also described, as well as a method to reduce the output voltage ripple. In addition, the generic and unified model is strictly applied to derive the SCC equivalent resistor, which is a measure of the power loss. The theoretical predictions are verified by simulation and experimental results.
|
349 |
Thermodynamic Database for Zirconium AlloysJerlerud Pérez, Rosa January 2006 (has links)
For many decades zirconium alloys have been commonly used in the nuclear power industry as fuel cladding material. Besides their good corrosion resistance and acceptable mechanical properties the main reason for using these alloys is the low neutron absorption. Zirconium alloys are exposed to a very severe environment during the nuclear fission process and there is a demand for better design of this material. To meet this requirement a thermodynamic database is useful to support material designers. In this thesis some aspects of the development of a thermodynamic database for zirconium alloys are presented. A thermodynamic database represents an important facility in applying thermodynamic equilibrium calculations for a given material providing: 1) relevant information about the thermodynamic properties of the alloys e.g. amount and composition of phases, oxygen activity, heat capacity etc, and 2) significant information for the manufacturing process e.g. heat treatment temperature. The basic information in the database is first the unary data, i.e. pure elements; those are taken from the compilation of the Scientific Group Thermodata Europe (SGTE) and then the binary and ternary systems. All phases present in those binary and ternary systems are described by means of the Gibbs energy as a function of composition and temperature. Many of those binary systems have been taken from published or unpublished works and others have been assessed in the present work. The elements included in the databse are: C, Fe, Cr, Nb, Ni, Mo, O, Si, Sn, and Zr + H, and the assessment performed under this thesis are: Cr-Sn, Mo-Zr, Sn-Zr, Fe-Nb-Zr and Nb-O-Zr. All the calculations have been made using Thermo-Calc software and the representation of the Gibbs energy obtained by applying Calphad technique with some use of ab initio calculations. / QC 20100902
|
350 |
Analyse et construction de codes LDPC non-binaires pour des canaux à évanouissementGorgolione, Matteo 25 October 2012 (has links) (PDF)
Au cours des 15 dernières années, des progrès spectaculaires dans l'analyse et la conception des codes définis par des graphes bipartites et décodables par des algorithmes itératifs ont permis le développement de systèmes de correction d'erreurs, avec des performances de plus en plus proches la limite théorique de Shannon. Dans ce contexte, un rôle déterminant a été joué par la famille des codes à matrice de parité creuse, appelés codes LDPC (pour " Low-Density Parity-Check ", en anglais), introduit par Gallager au début des années 60 et décrits plus tard en termes de graphes bipartites. Négligés pendant de longues années, ces codes ont été redécouverts à la fin des années 90, après que la puissance du décodage itératif a été mise en évidence grâce à l'invention des Turbo-codes. Ce n'est qu'au début des années 2000 que les techniques nécessaires à l'analyse et l'optimisation des codes LDPC ont été développées, techniques qui ont permis ensuite la construction des codes avec des performances asymptotiques proches de la limite de Shannon. Cette remarquable avancée a motivé l'intérêt croissant de la communauté scientifique et soutenu le transfert rapide de cette technologie vers le secteur industriel. Plus récemment, un intérêt tout particulier a été porté aux codes LDPC définis sur des alphabets non-binaires, grâce notamment à leur meilleure capacité de correction en " longueur finie ". Bien que Gallager ait déjà proposé l'utilisation des alphabets non-binaires, en utilisant l'arithmétique modulaire, les codes LDPC non-binaires définis sur les corps finis n'ont étés étudiés qu'à partir de la fin des années 90. Il a été montré que ces codes offrent de meilleures performances que leurs équivalents binaires lorsque le bloc codé est de longueur faible à modérée, ou lorsque les symboles transmis sur le canal sont eux-mêmes des symboles non- binaires, comme par exemple dans le cas des modulations d'ordre supérieur ou des canaux à antennes multiples. Cependant, ce gain en performance implique un coût non négligeable en termes de complexité de décodage, qui peut entraver l'utilisation des codes LDPC non binaires dans des systèmes réels, surtout lorsque le prix à payer en complexité est plus important que le gain en performance. Cette thèse traite de l'analyse et de la conception des codes LDPC non binaires pour des canaux à évanouissements. L'objectif principal de la thèse est de démontrer que, outre le gain en performance en termes de capacité de correction, l'emploi des codes LDPC non binaires peut apporter des bénéfices supplémentaires, qui peuvent compenser l'augmentation de la complexité du décodeur. La " flexibilité " et la " diversité " représentent les deux bénéfices qui seront démontrées dans cette thèse. La " flexibilité " est la capacité d'un système de codage de pouvoir s'adapter à des débits (rendements) variables tout en utilisant le même encodeur et le même décodeur. La " diversité " se rapporte à sa capacité d'exploiter pleinement l'hétérogénéité du canal de communication. La première contribution de cette thèse consiste à développer une méthode d'approximation de l'évolution de densité des codes LDPC non-binaires, basée sur la simulation Monte-Carlo d'un code " infini ". Nous montrons que la méthode proposée fournit des estimations très fines des performances asymptotiques des codes LDPC non-binaires et rend possible l'optimisation de ces codes pour une large gamme d'applications et de modèles de canaux. La deuxième contribution de la thèse porte sur l'analyse et la conception de système de codage flexible, utilisant des techniques de poinçonnage. Nous montrons que les codes LDPC non binaires sont plus robustes au poinçonnage que les codes binaires, grâce au fait que les symboles non-binaires peuvent être partialement poinçonnés. Pour les codes réguliers, nous montrons que le poinçonnage des codes non-binaires obéit à des règles différentes, selon que l'on poinçonne des symboles de degré 2 ou des symboles de degré plus élevé. Pour les codes irréguliers, nous proposons une procédure d'optimisation de la " distribution de poinçonnage ", qui spécifie la fraction de bits poinçonnés par symbole non-binaire, en fonction du degré du symbole. Nous présentons ensuite des distributions de poinçonnage optimisées pour les codes LDPC non binaires, avec des performances à seulement 0,2 - 0,5 dB de la capacité, pour des rendements poinçonnés variant de 0,5 à 0,9. La troisième contribution de la thèse concerne les codes LDPC non binaires transmis sur un canal de Rayleigh à évanouissements rapides, pour lequel chaque symbole modulé est affecté par un coefficient d'évanouissement différent. Dans le cas d'une correspondance biunivoque entre les symboles codés et les symboles modulés (c.-à-d. lorsque le code est définit sur un corps fini de même cardinalité que la constellation utilisée), certains symboles codés peuvent être complètement noyés dans le bruit, dû aux évanouissements profonds du canal. Afin d'éviter ce phénomène, nous utilisons un module d'entrelacement au niveau bit, placé entre l'encodeur et le modulateur. Au récepteur, le module de désentrelacement apporte de la diversité binaire en entrée du décodeur, en atténuant les effets des différents coefficients de fading. Nous proposons un algorithme d'entrelacement optimisé, inspirée de l'algorithme " Progressive Edge-Growth " (PEG). Ainsi, le graphe bipartite du code est élargi par un nouvel ensemble de nœuds représentant les symboles modulés, et l'algorithme proposé établit des connections entre les nœuds représentant les symboles modulés et ceux représentant les symboles codés, de manière à obtenir un graphe élargi de maille maximale. Nous montrons que l'entrelaceur optimisé permet d'obtenir un gain de performance par rapport à un entrelaceur aléatoire, aussi bien en termes de capacité de correction que de détection d'erreurs. Enfin, la quatrième contribution de la thèse consiste en un schéma de codage flexible, permettant d'atteindre la diversité maximale d'un canal à évanouissements par blocs. La particularité de notre approche est d'utiliser des codes Root-LDPC non binaires couplés avec des codes multiplicatifs non binaires, de manière à ce que le rendement de codage puisse facilement s'adapter au nombre de blocs d'évanouissement. Au niveau du récepteur, une simple technique de combinaison de diversité est utilisée en entrée du décodeur. Comme conséquence, la complexité du décodage reste inchangée quel que soit le nombre de blocs d'évanouissement et le rendement du code utilisé, tandis que la technique proposée apporte un réel bénéfice en termes de capacité de correction.
|
Page generated in 0.0403 seconds