• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 21
  • 2
  • Tagged with
  • 436
  • 198
  • 105
  • 70
  • 65
  • 54
  • 52
  • 47
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Optimisation de la locomotion de robots bas coût à pattes / Optimizing locomotion on low-cost legged robots

Passault, Grégoire 14 December 2016 (has links)
Les robots à pattes promettent de pouvoir marcher sur des terrains irréguliers, voire accidentés. Ils trouvent dès aujourd'hui une application ludo- éducative. Nous présentons la plateforme Metabot, un robot quadrupède open-source, qui a été développée pour l'éducation. Cette dernière s'inscrit dans le contexte technologique actuel, qui permet, grâce à un accès au prototypage rapide et aux composants sur étagère de construire des robots à pattes autrefois présents uniquement dans les laboratoires. Cette plateforme a été utilisée dans l'enseignement secondaire, afin de permettre à des élèves de découvrir la robotique, ainsi que la programmation. Nous décrivons par la suite un environnement mis au point dans le but d'étudier la locomotion des robots à pattes, en étendant le contrôleur expert développé sur Metabot à une plus grande famille de robots. Nous avons réalisé une série d'expériences en simulation sur moteur physique que nous avons analysées dans le but de mieux comprendre les règles qui régissent la locomotion des robots à pattes. Enfin, nous nous intéressons à la locomotion bipède, qui pose le problème de la stabilité. Lors du développement de notre plateforme Sigmaban, un petit robot humanoïde conçu pour participer à la RoboCup, nous avons créé un capteur permettant d'estimer le centre de pression du robot. Nous exploitons ce dernier pour améliorer la stabilité latérale du robot, en créant ainsi une marche en boucle fermée. / A promise of legged robots is being able walking on irregular or uneven floor. It is already used nowadays in education and entertainment applications. We introduce the Metabot platform, an open-source quadruped robot developped for education. This takes place in current technological context which allows, thanks to an access to fast prototyping and off-shelf components, building legged robots that were formerly only present in laboratories. This platform was used for teaching in secondary schools, allowing students to discover robotics, and especially programming. We then describe an environment designed to study legged robots locomotion, extending the expert controller designed for Metabot. We realized some physics simulation experiments and analyzed it to get a better understanding of the legged locomotion underlying rules. At last, we get a closer look at biped locomotion, for which stability problems arise. When developping our Sigmaban platform, a small-sized humanoid robot created to participate in RoboCup soccer, we designed foot pressure sensors that allow us to estimate the robot center of pressure. We exploit these sensors to improve the lateral stability on the robot, creating a closed-loop walk.
92

Évaluer le coût des politiques climatiques : de l'importance des mécanismes de second rang / Evaluating mitigation costs : the importance of representing second best mechanisms

Guivarch, Céline 22 October 2010 (has links)
La thèse montre comment des mécanismes "de second rang" (rigidités des marchés du travail, imperfection des anticipations) et des mécanismes considérés de court-terme(inertie du capital installé, chômage) induisent que (i) les coûts de l'atténuation sont des coûts de transition, si tant est que des politiques de réorientation des investissements sont mises en place de façon précoce pour éviter des lock-ins sur des chemins de développement carbonés ; (ii) ces coûts peuvent être élevés, en particulier pour les pays émergents et en développement. Dès lors, la représentation des rigidités du monde réel dans les modèles des interfaces économie-énergie-environnement a des implications importantes pour l'analyse des politiques climatiques. L'égalisation des prix du carbone n'est plus la politique minimisant les coûts de l'atténuation lorsque l'on se place dans un monde de second-rang. La thèse illustre ainsi que le paquet "prix du carbone mondial plus transferts compensatoires" ne peut conduire, par lui-même, à un accord acceptable pour les pays émergents et en développement. Elle insiste sur la nécessité de concevoir des politiques alternatives ouvrant la palette des variables de contrôle (investissements publics, infrastructures, réformes fiscales) et passant par des politiques spécifiques au niveau local / The thesis shows how second-best mechanisms (labour markets rigidities, imperfect foresight) and mechanisms considered as short-term issues (inertia of productive capital,unemployment) induce that (i) mitigation costs are transition costs insofar as policies to reorient investments to low-carbon infrastructures are implemented early to avoid lock-ins in high-carbon development paths ; (ii) these transition costs can be significant, in particular for emerging and developing countries. Therefore, representing real world rigidities in energy-economy-environment models has important implications for the analysis of climate policies. Equalizing carbon prices is not anymore the policy minizing mitigation costs if a second-best world is considered. The thesis thus illustrates that the package "worldwide carbon price plus compensatory transfers" cannot lead, by itself, to a palatable deal for emerging and developing countries. It insists on the necessity to design alternative policies to open the control variables palette (public investments, infrastructures, fiscal reforms) and allowing specific policies at the local level
93

Étude de la performance des réseaux d'ouvrages d'art et détermination des stratégies de gestion optimales / Study of the performance of the networks of works of engineering and determination of the optimal strategies of management

Orcesi, André 13 October 2008 (has links)
L'objectif de cette thèse est de fournir une approche globale permettant de déterminer les stratégies de gestion optimales d'un réseau d'ouvrages. La démarche proposée est d'équilibrer les coûts liés à l'offre de l'infrastructure de transport avec les coûts liés à la demande de transport. Le coût de l'offre du réseau d'ouvrage d'art représente le coût des diverses actions de maintenance nécessaires pour obtenir un niveau de service des ouvrages adéquat. Le coût de la demande de transport représente le coût supporté par les usagers du fait de possibles pertes de niveaux de service. La performance des ouvrages est caractérisée à l'aide de deux approches probabilistes, une paramétrique basée sur la théorie de la fiabilité, et une non paramétrique basée sur un indice d'état qui donne une information sur l'état global de l'ouvrage. La méthodologie est proposée dans un premier temps lorsque les deux informations sont accessibles puis lorsque la seule information sur les ouvrages est l'indice d'état. La quantification de la demande de transport est effectuée en affectant le trafic sur le réseau de transport suivant les différentes configurations de l'état des ouvrages, puis en calculant la différence de coût pour chacune de ces configurations par rapport à une situation dite de référence où tous les ouvrages ont un niveau de service idéal. La détermination des stratégies de gestion optimales est effectuée à l'aide d'un algorithme génétique de manière à trouver d'une part les instants optimaux d'intervention et d'autre part les actions de maintenance optimales. Deux procédures sont proposées, une où la somme des coûts des usages et des coûts du gestionnaire est minimisée, une autre où ces deux coûts sont minimisé de manière séparée, un meilleur compromis étant recherché. La méthodologie proposée permet de déterminer les calendriers de maintenance optimaux d'un réseau d'ouvrages d'art pour un horizon donné, de répondre aux questions « quand » et « comment » intervenir, pour disposer d'un fonctionnement du réseau de transport le meilleur possible tout en ajustant les coûts d'intervention / In a context of scarce capital resources and to tackle the ageing of the bridge stock, stakeholders require and use decision making techniques. These tools prioritize at least maintenance actions and optimize allocation of funds eventually. However, all these bridge management systems have an individual strategy approach. They do not include the performance of the transportation network as a criterion in the decision process. The general principle is to find the most appropriate maintenance strategy for each bridge belonging to a network. This approach is not necessarily the best suited strategy for a transportation network. The aim of this thesis is to propose a methodology that provides optimal maintenance strategies for a network of bridges and not for each bridge taken as individuals. The proposed methodology consists in balancing supply costs provided by the infrastructure network with demand costs of the network users. The supply costs are those of all needed maintenance actions, performed by the bridge owner, to provide an adequate level of service for the bridges. The demand costs are those supported by the network users in case of inadequate level of service. The assessment of the supply costs requires to introduce performance of bridges. To take into account the uncertainties in the ageing process of bridges, the performance is calculated by using two probabilistic approaches : a parametrical one that is based on the reliability theory and that applies a failure mode for each bridge, and a non parametrical one that is based on a condition index that gives an information on the overall condition of the bridge. The methodology is proposed in a first time when both information are known, and in a second time when only the condition index is available. Besides, The demand costs are quantified by determining the traffic assignment if there is a traffic disruption for a combination of bridges, then by calculating the difference of user costs for these events with the reference when all bridges are in good condition and ideal performance. Optimal management strategies are determined by using genetical algorithms. First, optimal maintenance times are found for each bridge. Second, optimal maintenance actions are found. Two approaches are proposed. In a first one, the sum of user costs and maintenance costs is minimized. In a second one both user and maintenance costs are minimized separately and the best compromise is determined. Finally, the proposed methodology allows to determine the optimal maintenance actions planning for a given time period. It helps to answer the two questions : « when » and « how » take decisions in order to have the best network system by optimizing the different costs
94

Extensions of sampling-based approaches to path planning in complex cost spaces : applications to robotics and structural biology / Extensions des méthodes de planification de chemin par échantillonnage dans des espaces de coût complexes : applications en robotique et en biologie structurale

Devaurs, Didier 10 October 2014 (has links)
Planifier le chemin d’un robot dans un environnement complexe est un problème crucial en robotique. Les méthodes de planification probabilistes peuvent résoudre des problèmes complexes aussi bien en robotique, qu’en animation graphique, ou en biologie structurale. En général, ces méthodes produisent un chemin évitant les collisions, sans considérer sa qualité. Récemment, de nouvelles approches ont été créées pour générer des chemins de bonne qualité : en robotique, cela peut être le chemin le plus court ou qui maximise la sécurité ; en biologie, il s’agit du mouvement minimisant la variation énergétique moléculaire. Dans cette thèse, nous proposons plusieurs extensions de ces méthodes, pour améliorer leurs performances et leur permettre de résoudre des problèmes toujours plus difficiles. Les applications que nous présentons viennent de la robotique (inspection industrielle et manipulation aérienne) et de la biologie structurale (mouvement moléculaire et conformations stables). / Planning a path for a robot in a complex environment is a crucial issue in robotics. So-called probabilistic algorithms for path planning are very successful at solving difficult problems and are applied in various domains, such as aerospace, computer animation, and structural biology. However, these methods have traditionally focused on finding paths avoiding collisions, without considering the quality of these paths. In recent years, new approaches have been developed to generate high-quality paths: in robotics, this can mean finding paths maximizing safety or control; in biology, this means finding motions minimizing the energy variation of a molecule. In this thesis, we propose several extensions of these methods to improve their performance and allow them to solve ever more difficult problems. The applications we present stem from robotics (industrial inspection and aerial manipulation) and structural biology (simulation of molecular motions and exploration of energy landscapes).
95

Revisiter l'alimentation durable en précisant la place de la nutrition et le rôle des produits animaux / Revisiting sustainable diets by specifying the place of nutrition and the role of animal products

Barré, Tangui 06 December 2016 (has links)
L’alimentation durable est respectueuse de l’environnement, culturellement acceptable, financièrement abordable, saine et nutritionnellement adéquate. Le doctorant étudiera la compatibilité entre ces différentes dimensions, en mettant en œuvre des techniques d’épidémiologie nutritionnelle et de modélisation de rations. En particulier, il étudiera sous quelles conditions un ré-équilibrage entre les consommations de produits végétaux et de produits animaux pourrait contribuer à une alimentation durable, au niveau d’une population, et pour des individus. / Sustainable diets are "protective and respectful of biodiversity and ecosystems, culturally acceptable, accessible,economically fair and affordable; nutritionally adequate, safe and healthy; while optimizing natural and human resources". The PhD student will study the compatibility between those different dimensions of sustainability, using nutritional epidemiology and diet modelling. Particularly, he will study the conditions under which re-balancing animal and plant-based food intakes would contribute to more sustainable diets, at individual and population levels.
96

Évaluation pharmacoéconomique d'un traitement préventif des infections respiratoires aiguës chez les patients atteints de maladie pulmonaire obstructive chronique

Ducruet, Thierry January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
97

Contribution de l’information géographique aux métiers de l’assurance pour la gestion des événements d’ampleur / Contribution of geographical information to insurance industry for the management of extreme events

Donguy, Arnaud 30 May 2012 (has links)
L'usage de l'information géographique par une société d'assurance se révèle être un précieux atout dans un marché mature et perturbé par d'incessants événements d'ampleur. L'angle d'approche adopté vise à montrer que l'intérêt de son emploi se décline à tous les niveaux de la chaîne de valeur assurantielle (souscription, gestion de sinistre, cumul de risque, réassurance). Nous montrons que le recours à l'information géographique et à ses techniques associées ouvre de multiples voies de développement des métiers de l'assurance. La première vise à estimer le coût d'un événement extrême pour répondre aux exigences imposées par la législation (Solvabilité 2) et offrir des éléments de réflexion quant au dimensionnement des protections financières. La deuxième vise au renforcement de l'offre de protection contre les risques naturels, là où le régime CatNat trouve ses limites et n'intervient pas. Il s'agit de créer des produits d'assurance complémentaires et innovants agissant aux contours d'un système parfois flou et lacunaire. La troisième s'inscrit dans une perspective d'accompagnement des assurés en les informant des risques latents auxquels ils sont soumis, en leurs prodiguant des conseils en matière de prévention face à des risques bien souvent sous estimés et ne recevant généralement pas toute l'attention et de facto, la préparation qui leurs sont dues. / The use of geographical information by an insurance company appears to be a valuable asset in a mature business disturbed by ceaseless extreme events. The chosen approach aims to show the usefulness of this specific information at all levels of the insurance chain value (underwriting, claims management, cumulative risk and reinsurance). We show that the use of geographic information and its associated techniques opens up many development paths for the insurance industry. The first one is to estimate the cost of an extreme event to meet the requirements imposed by legislator (Solvency 2) and offer some thoughts about the need of financial protection. The second aims at strengthening the level of protection against natural hazards, where the insurance scheme is limited by CatNat's law and is not involved. This consists in creating additional and innovative insurance products acting in a vague and sometimes incomplete system. The third is part of a policyholders accompanying perspective by informing them of the latent risks to which they are subjected, furthermore providing them preventive advice against risks which are often underestimated and usually do not benefit from attention and de facto, the way to prepare for them.
98

Clés de progrés technico-économiques des batteries lithium-ion pour la traction automobile / Technical and economic analysis of lithium-ion batteries for electric vehicles

Patry, Gaëtan 16 December 2014 (has links)
Les véhicules électriques et hybrides présentent des avantages considérables qui les rendent attrayants, mais ont un coût élevé limitant leur succès. Ce travail a pour but de contribuer à la baisse du coût des batteries lithium-ion, inducteur majeur du prix des véhicules électriques, en proposant et en évaluant des pistes d'optimisation. Pour cela, une visibilité fiable et détaillée de la structure de coût de ces batteries est un prérequis. C'est pourquoi une méthodologie de modélisation des coûts des batteries lithium-ion en lien avec la conception technique, ainsi que des référentiels économiques sur le procédé de fabrication et les matières ont été mis au point. La modélisation présentant une part d'incertitude, une méthode innovante d'évaluation de celle-ci a aussi été développée. L'utilisation de ce modèle de coût a permis la détection et l'évaluation de piste de progrès. Ainsi, une piste de progrès notable soulevée dans cette thèse porte sur un paramètre de conception négligé dans la littérature : l'épaisseur d'enduction de l'électrode. Ce modèle a aussi permis de confirmer un point déjà remarqué dans plusieurs publications : le poids considérable des matériaux actifs dans le coût total. Pour comprendre les raisons de ce fait, un modèle de coût de ces composés a été développé et a permis de mettre en lumière des voies de réduction. In fine, ce travail propose pour la première fois une modélisation détaillée jusqu'aux précurseurs des matériaux actifs de la structure de coût des batteries lithium-ion et indique des leviers de réduction. Ceci constitue un résultat remarquable, offrant de nouvelles clés pour l'optimisation technico-économique des batteries lithium-ion pour la traction automobile. / Electric and hybrid vehicles are particularly attractive. They offer several advantages, but at a high cost, which explains their current limited success. The purpose of this work is to contribute to the cost reduction of lithium-ion batteries, the main cost factor in electric vehicles. For the evaluation of cost reduction solutions, a clear and detailed comprehension of the structure of the battery cost is required. A complete environment for the cost modelling of cells for lithium ion batteries has also been developed: two cost models and two databases. This environment is made in order to precisely calculate the cost of a battery using the design parameters. Since there are uncertainties surrounding the cost modelling, an innovative method for the assessment of this uncertainty has also been developed. Using the cost model, several ways of improvement for lithium-ion batteries have been detected and quantified. Thus, a way to reduce the cost evaluated in this work is concerned with a design parameter neglected in the literature: the electrode coating thickness. This model has also confirmed a point already suggested on several papers: the preponderance of active materials on overall cost of lithium-ion batteries. To understand the reasons behind this fact, a cost model for active materials has been developed. New ways of cost reduction have been highlighted with this model. Finally, this work proposes for the first time a complete modelling of cells for lithium-ion batteries, detailed up to materials precursors. It also indicates several ways to reduce the cost of these batteries. This work gives to the community a comprehensive view on the cost structure, essential for the optimization of lithium-ion batteries.
99

Mise au point de synthèses de stéroïdes : perspectives d'applications industrielles / Optimization of the synthesis of a key intermediate in glucocorticoids preparation

Jouve, Romain 03 January 2017 (has links)
L’objectif des travaux de thèse est l’amélioration du coût de revient industriel du décortidiène, intermédiaire clé dans la préparation de plusieurs principes actifs produits au sein de l’usine de production de SANOFI Vertolaye. Après une revue de l’état de l’art sur la synthèse du décortidiène et en fonction du cahier des charges défini, deux voies ont été explorées. La première voie de synthèse étudiée a permis de préparer le décortidiène en deux étapes, alors que la synthèse industrielle est effectuée en quatre étapes. Cependant, le rendement encourageant obtenu est inférieur à l’objectif fixé. Une étude de modélisation moléculaire a permis de proposer un mécanisme réactionnel concernant cette voie. Nous avons pu mettre en évidence lors de cette synthèse la formation d’un nouveau coricostéroïde, présentant une activité anti inflammatoire comparable à celle de la prénidsolone. La deuxième voie de synthèse permet de réduire le nombre d’étapes de la synthèse du décortidiène de 25% et conduit à un rendement acceptable par rapport à celui défini dans le cahier des charges. Le procédé a fait l’objet de plusieurs séries par une approche « plan d’expériences » pour atteindre les objectifs. / The aim of this doctoral works is the reduction of the production costs of decortidiene made by SANOFI Vertolaye. Decortidiene is a key intermediate for the synthesis of several active principles. After checking the iterature, two ways were explored. The first one reduces by half the synthetic steps buthe yield is lower than the target. A molecular modeling allowed us to propose a reaction mechanism. Several optimizations and experimental design of experiments enabled the second studied pathway to reduce by 25% the industrial process and to reach the targeted yield.
100

Mise en oeuvre matérielle de décodeurs LDPC haut débit, en exploitant la robustesse du décodage par passage de messages aux imprécisions de calcul / Efficient Hardware Implementations of LDPC Decoders, through Exploiting Impreciseness in Message-Passing Decoding Algorithms

Nguyen Ly, Thien Truong 03 May 2017 (has links)
Les codes correcteurs d'erreurs sont une composante essentielle de tout système de communication, capables d’assurer le transport fiable de l’information sur un canal de communication bruité. Les systèmes de communication de nouvelle génération devront faire face à une demande sans cesse croissante en termes de débit binaire, pouvant aller de 1 à plusieurs centaines de gigabits par seconde. Dans ce contexte, les codes LDPC (pour Low-Density Parity-Check, en anglais), sont reconnus comme une des solutions les mieux adaptées, en raison de la possibilité de paralléliser massivement leurs algorithmes de décodage et les architectures matérielles associées. Cependant, si l’utilisation d’architectures massivement parallèles permet en effet d’atteindre des débits très élevés, cette solution entraine également une augmentation significative du coût matériel.L’objectif de cette thèse est de proposer des implémentations matérielles de décodeurs LDPC très haut débit, en exploitant la robustesse des algorithmes de décodage par passage de messages aux imprécisions de calcul. L’intégration dans le décodage itératif de mécanismes de calcul imprécis, s’accompagne du développement de nouvelles approches d’optimisation du design en termes de coût, débit et capacité de correction.Pour ce faire, nous avons considéré l’optimisation conjointe de (i) le bloc de quantification qui fournit l'information à précision finie au décodeur, et (ii) les unités de traitement imprécis des données, pour la mise à jour des messages échangés pendant de processus de décodage. Ainsi, nous avons tout d’abord proposé un quantificateur à faible complexité, qui peut être optimisé par évolution de densité en fonction du code LDPC utilisé et capable d’approcher de très près les performances d’un quantificateur optimal. Le quantificateur proposé a été en outre optimisé et utilisé pour chacun des décodeurs imprécis proposés ensuite dans cette thèse.Nous avons ensuite proposé, analysé et implémenté plusieurs décodeurs LDPC imprécis. Les deux premiers décodeurs sont des versions imprécises du décodeur « Offset Min-Sum » (OMS) : la surestimation des messages des nœuds de contrôle est d’abord compensée par un simple effacement du bit de poids faible (« Partially OMS »), ensuite le coût matériel est d’avantage réduit en supprimant un signal spécifique (« Imprecise Partially OMS »). Les résultats d’implémentation sur cible FPGA montrent une réduction importante du coût matériel, tout en assurant une performance de décodage très proche du OMS, malgré l'imprécision introduite dans les unités de traitement.Nous avions ensuite introduit les décodeurs à alphabet fini non-surjectifs (NS-FAIDs, pour « Non-Surjective Finite Alphabet Iterative Decoders », en anglais), qui étendent le concept d’« imprécision » au bloc mémoire du décodeur LDPC. Les décodeurs NS-FAIDs ont été optimisés par évolution de densité pour des codes LDPC réguliers et irréguliers. Les résultats d'optimisation révèlent différents compromis possibles entre la performance de décodage et l'efficacité de la mise en œuvre matérielle. Nous avons également proposé trois architectures matérielles haut débit, intégrant les noyaux de décodage NS-FAID. Les résultats d’implémentation sur cible FPGA et ASIC montrent que les NS-FAIDs permettent d’obtenir des améliorations significatives en termes de coût matériel et de débit, par rapport au décodeur Min-Sum, avec des performances de décodage meilleures ou très légèrement dégradées. / The increasing demand of massive data rates in wireless communication systems will require significantly higher processing speed of the baseband signal, as compared to conventional solutions. This is especially challenging for Forward Error Correction (FEC) mechanisms, since FEC decoding is one of the most computationally intensive baseband processing tasks, consuming a large amount of hardware resources and energy. The conventional approach to increase throughput is to use massively parallel architectures. In this context, Low-Density Parity-Check (LDPC) codes are recognized as the foremost solution, due to the intrinsic capacity of their decoders to accommodate various degrees of parallelism. They have found extensive applications in modern communication systems, due to their excellent decoding performance, high throughput capabilities, and power efficiency, and have been adopted in several recent communication standards.This thesis focuses on cost-effective, high-throughput hardware implementations of LDPC decoders, through exploiting the robustness of message-passing decoding algorithms to computing inaccuracies. It aims at providing new approaches to cost/throughput optimizations, through the use of imprecise computing and storage mechanisms, without jeopardizing the error correction performance of the LDPC code. To do so, imprecise processing within the iterative message-passing decoder is considered in conjunction with the quantization process that provides the finite-precision information to the decoder. Thus, we first investigate a low complexity code and decoder aware quantizer, which is shown to closely approach the performance of the quantizer with decision levels optimized through exhaustive search, and then propose several imprecise designs of Min-Sum (MS)-based decoders. Proposed imprecise designs are aimed at reducing the size of the memory and interconnect blocks, which are known to dominate the overall area/delay performance of the hardware design. Several approaches are proposed, which allow storing the exchanged messages using a lower precision than that used by the processing units, thus facilitating significant reductions of the memory and interconnect blocks, with even better or only slight degradation of the error correction performance.We propose two new decoding algorithms and hardware implementations, obtained by introducing two levels of impreciseness in the Offset MS (OMS) decoding: the Partially OMS (POMS), which performs only partially the offset correction, and the Imprecise Partially OMS (I-POMS), which introduces a further level of impreciseness in the check-node processing unit. FPGA implementation results show that they can achieve significant throughput increase with respect to the OMS, while providing very close decoding performance, despite the impreciseness introduced in the processing units.We further introduce a new approach for hardware efficient LDPC decoder design, referred to as Non-Surjective Finite-Alphabet Iterative Decoders (FAIDs). NS-FAIDs are optimized by Density Evolution for regular and irregular LDPC codes. Optimization results reveal different possible trade-offs between decoding performance and hardware implementation efficiency. To validate the promises of optimized NS-FAIDs in terms of hardware implementation benefits, we propose three high-throughput hardware architectures, integrating NS-FAIDs decoding kernels. Implementation results on both FPGA and ASIC technology show that NS-FAIDs allow significant improvements in terms of both throughput and hardware resources consumption, as compared to the Min-Sum decoder, with even better or only slightly degraded decoding performance.

Page generated in 0.0281 seconds