• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Codes correcteurs d'erreurs NB-LDPC associés aux modulations d'ordre élevé / Non-binary LDPC codes associated to high order modulations

Abdmouleh, Ahmed 12 September 2017 (has links)
Cette thèse est consacrée à l'analyse de l'association de codes LDPC non-binaires (LDPC-NB) à des modulations d’ordre élevé. Cette association vise à améliorer l’efficacité spectrale pour les futurs systèmes de communication sans fil. Notre approche a consisté à tirer au maximum profit de l'association directe des symboles d’un code LDPC-NB sur un corps de Galois avec une constellation de même cardinalité. Notre première contribution concerne la diversité spatiale obtenue dans un canal de Rayleigh avec et sans effacement en faisant subir une rotation à la constellation. Nous proposons d’utiliser l'information mutuelle comme paramètre d’optimisation de l’angle de rotation, et ce pour les modulations de type « BICM » et les modulations codées. Cette étude permet de mettre en évidence les avantages de la modulation codée par rapport à la modulation BICM de l’état de l’art. Par simulation de Monte-Carlo, nous montrons que les gains de codage théoriques se retrouvent dans les systèmes pratiques. Notre deuxième contribution consiste à concevoir conjointement l'étiquetage des points de constellation et le choix des coefficients d'une équation de parité en fonction de la distance euclidienne, et non plus de la distance de Hamming. Une méthode d’optimisation est proposée. Les codes ainsi construits offrent des gains de performance de 0.2 dB et ce, sans ajout de complexité. / This thesis is devoted to the analysis of the association of non-binary LDPC codes (NB-LDPC) with high-order modulations. This association aims to improve the spectral efficiency of future wireless communication systems. Our approach tries to take maximum advantage of the straight association between NB-LDPC codes over a Galois Field with modulation constellations of the same cardinality. We first investigate the optimization of the signal space diversity technique obtained with the Rayleigh channel (with and without erasure) thanks to the rotation of the constellation. To optimize the rotation angle, the mutual information analysis is performed for both coded modulation (CM) and bit-interleaved coded modulation (BICM) schemes. The study shows the advantages of coded modulations over the state-of-the-art BCIM modulations. Using Monte Carlo simulation, we show that the theoretical gains translate into actual gains in practical systems. In the second part of the thesis, we propose to perform a joint optimization of constellation labeling and parity-check coefficient choice, based on the Euclidian distance instead of the Hamming distance. An optimization method is proposed. Using the optimized matrices, a gain of 0.2 dB in performance is obtained with no additional complexity.
2

Etude de turbocodes non binaires pour les futurs systèmes de communication et de diffusion / Study of non-binary turbo codes for future communication and broadcasting systems

Klaimi, Rami 03 July 2019 (has links)
Les systèmes de téléphonie mobile de 4ème et 5ème générations ont adopté comme techniques de codage de canal les turbocodes, les codes LDPC et les codes polaires binaires. Cependant, ces codes ne permettent pas de répondre aux exigences, en termes d’efficacité spectrale et de fiabilité, pour les réseaux de communications futurs (2030 et au-delà), qui devront supporter de nouvelles applications telles que les communications holographiques, les véhicules autonomes, l’internet tactile … Un premier pas a été fait il y a quelques années vers la définition de codes correcteurs d’erreurs plus puissants avec l’étude de codes LDPC non binaires, qui ont montré une meilleure performance que leurs équivalents binaires pour de petites tailles de code et/ou lorsqu'ils sont utilisés sur des canaux non binaires. En contrepartie, les codes LDPC non binaires présentent une complexité de décodage plus importante que leur équivalent binaire. Des études similaires ont commencé à émerger du côté des turbocodes. Tout comme pour leurs homologues LDPC, les turbocodes non binaires présentent d’excellentes performances pour de petites tailles de blocs. Du point de vue du décodage, les turbocodes non binaires sont confrontés au même problème d’augmentation de la complexité de traitement que les codes LDPC non binaire. Dans cette thèse nous avons proposé une nouvelle structure de turbocodes non binaires en optimisant les différents blocs qui la constituent. Nous avons réduit la complexité de ces codes grâce à la définition d’un algorithme de décodage simplifié. Les codes obtenus ont montré des performances intéressantes en comparaison avec les codes correcteur d’erreur de la littérature. / Nowadays communication standards have adopted different binary forward error correction codes. Turbo codes were adopted for the long term evolution standard, while binary LDPC codes were standardized for the fifth generation of mobile communication (5G) along side with the polar codes. Meanwhile, the focus of the communication community is shifted towards the requirement of beyond 5G standards. Networks for the year 2030 and beyond are expected to support novel forward-looking scenarios, such as holographic communications, autonomous vehicles, massive machine-type communications, tactile Internet… To respond to the expected requirements of new communication systems, non-binary LDPC codes were defined, and they are shown to achieve better error correcting performance than the binary LDPC codes. This performance gain was followed by a high decoding complexity, depending on the field order.Similar studies emerged in the context of turbo codes, where the non-binary turbo codes were defined, and have shown promising error correcting performance, while imposing high complexity. The aim of this thesis is to propose a new low-complex structure of non-binary turbocodes. The constituent blocks of this structure were optimized in this work, and a new low complexity decoding algorithm was proposed targeting a future hardware implementation. The obtained results are promising, where the proposed codes are shown to outperform existing binary and non-binary codes from the literature.
3

Tatouage conjoint a la compression d'images fixes dans JPEG2000 / joint watermarking and compression of JPEG2000 images

Goudia, Dalila 06 December 2011 (has links)
Les technologies numériques et du multimédia ont connu de grandes avancées ces dernières années. La chaîne de transmission des images est constituée de plusieurs traitements divers et variés permettant de transmettre un flux de données toujours plus grand avec toujours plus de services à la clé. Nous citons par exemple, la compression, l'augmentation de contenu, la confidentialité, l'intégrité et l'authenticité des images pendant leur transmission. Dans ce contexte, les approches conjointes ont suscité un intérêt certain de la part de la communauté du traitement d'images car elles permettent d'obtenir des systèmes de faible complexité calculatoire pouvant être utilisés dans des applications nécessitant peu de ressources matérielles. La dissimulation de données ou Data Hiding, est l'art de cacher un message dans un support numérique. L'une des branches les plus importantes du data hiding est le tatouage numérique ou watermarking. La marque doit rester présente dans l'image hôte même si celle-ci subit des modifications appelées attaques. La compression d'images a comme objectif de réduire la taille des images stockées et transmises afin d'augmenter la capacité de stockage et de minimiser le temps de transmission. La compression représente une opération incontournable du stockage ou du transfert d'images. Elle est considérée par le data hiding comme une attaque particulièrement destructrice. La norme JPEG2000 est le dernier standard ISO/ITU-T pour le codage des images fixes. Dans cette thèse, nous étudions de manière conjointe la compression avec perte et le data hiding dans le domaine JPEG2000. L'approche conjointe offre de nombreux avantages dont le plus important est que la compression ne constitue plus une attaque vis-à-vis du data hiding. Les contraintes à respecter sont exprimées en termes de compromis à atteindre: compromis entre la quantité d'information insérée (payload), le taux de compression, la distorsion induite par l'insertion du message et la robustesse de la marque dans le cas du tatouage.Nos travaux de recherche ont conduit à l'élaboration de plusieurs schémas conjoints : un schéma conjoint d'insertion de données cachées et deux schémas conjoints de tatouage dans JPEG2000. Tous ces systèmes conjoints reposent sur des stratégies d'insertion informée basées sur la quantification codée par treillis (TCQ). Les propriétés de codage de canal de la TCQ sont exploitées pour pouvoir à la fois quantifier et insérer un message caché (ou une marque) pendant l'étape de quantification de JPEG2000. / Technological advances in the fields of telecommunications and multimedia during the two last decades, derive to create novel image processing services such as copyright protection, data enrichment and information hiding applications. There is a strong need of low complexity applications to perform seveval image processing services within a single system. In this context, the design of joint systems have attracted researchers during the last past years. Data hiding techniques embed an invisible message within a multimedia content by modifying the media data. This process is done in such a way that the hidden data is not perceptible to an observer. Digital watermarking is one type of data hiding. The watermark should be resistant to a variety of manipulations called attacks. The purpose of image compression is to represent images with less data in order to save storage costs or transmission time. Compression is generally unavoidable for transmission or storage purposes and is considered as one of the most destructive attacks by the data hiding. JPEG2000 is the last ISO/ ITU-T standard for still image compression.In this thesis, joint compression and data hiding is investigated in the JPEG2000 framework. Instead of treating data hiding and compression separately, it is interesting and beneficial to look at the joint design of data hiding and compression system. The joint approach have many advantages. The most important thing is that compression is no longer considered as an attack by data hiding.The main constraints that must be considered are trade offs between payload, compression bitrate, distortion induced by the insertion of the hidden data or the watermark and robustness of watermarked images in the watermarking context. We have proposed several joint JPEG2000 compression and data hiding schemes. Two of these joint schemes are watermarking systems. All the embedding strategies proposed in this work are based on Trellis Coded Quantization (TCQ). We exploit the channel coding properties of TCQ to reliably embed data during the quantization stage of the JPEG2000 part 2 codec.
4

Échographie compressée : Une nouvelle stratégie d’acquisition et de formation pour une imagerie ultrarapide / Compressed echography : A novel strategy for image acquisition and reconstruction

Bujoreanu, Denis 26 November 2018 (has links)
Il ne fait aucun doute que le coût relativement faible des échographes, la procédure rapide et la capacité d’imager des tissus biologiques mous ont permis à l’échographie de devenir l’un des outils de diagnostic médical les plus courants. Malheureusement, l’imagerie ultrasonore présente encore des inconvénients par rapport à d’autres techniques d’imagerie médicale, principalement en termes de qualité d’image et de détails fournis. Dans le souci d’améliorer la qualité d’image, le prix à payer est généralement la baisse de la cadence d’acquisition. Ce compromis profondément enraciné entre la qualité d'image fournie et le temps d'acquisition est peut-être l'un des plus difficiles verrous de la recherche dans le domaine de l’échographie et son dépassement pourrait mener à des meilleures performances des applications existantes et même à des nouvelles utilisations de l’échographie. Ce travail de thèse porte sur l’amélioration du compromis précédemment indiqué entre la qualité d’image et la cadence d’acquisition. En combinant des concepts tels que l’imagerie par ondes planes, les systèmes à entrées multiples / sorties multiples et les problèmes inverses, ce travail vise à acquérir simultanément des images ultrasonores du tissu insonifié, ce qui permet d’augmenter la cadence d’acquisition sans réduire la qualité de l’image fournie. À travers cette étude, nous avons mis au point un modèle mathématique permettant de modéliser la propagation des ondes ultrasonores dans les tissus mous. Ce modèle a été utilisé pour passer en revue un grand nombre de schémas d’acquisition en échographie déjà existants et pour exposer leurs avantages et leurs inconvénients. Nous avons proposé de surmonter le compromis qualité / cadence d’acquisition d'images en utilisant des ondes ultrasonores codées temporellement émises simultanément, et le modèle direct généré a permis l'utilisation des différentes approches de problèmes inverses afin de reconstruire la réponse impulsionnelle pulse / écho du milieu insonifié et donc de son image. De plus, nous avons encore amélioré le modèle direct, ce qui nous a permis de relier directement les échos rétrodiffusés à la position / magnitude des diffuseurs à l'intérieur du milieu imagé. Les résultats fournies par les approches de problèmes inverses basées sur ce modèle amélioré nous ont mis devant une méthode de pointe qui non seulement améliorent d’un facteur conséquent la qualité de l'image en termes de résolution et de cohérence du speckle, mais permettent également d'améliorer la cadence d'acquisition d’images. / It is beyond doubt that the relative low cost of ultrasound scanners, the quick procedure and the ability to image soft biological tissues helped ultrasound imaging to become one of the most common medical diagnostic tools. Unfortunately, ultrasound still has some drawbacks when compared to other medical imaging techniques mainly in terms of the provided image quality and details. In the quest for an improved image quality, usually, the price to pay is the drop in the frame acquisition rate. This deep rooted trade-off between the provided image quality and the acquisition time is perhaps one of the most challenging in today’s ultrasound research and its overcoming could lead to diagnostic improvements in the already existing ultrasound applications and even pave the way towards novel uses of echography. This study addresses the previously stated trade-off. Through a mix of such concepts as plane wave imaging, multiple-input /multiple-output systems and inverse problems, this work aims at acquiring ultrasound images of the insonified tissue simultaneously, thus providing an increased frame rate while not degrading the image quality. Through this study we came up with a mathematical model that allows modelling the ultrasound wave propagation inside soft tissues. This model was used to review a great number of existing ultrasound acquisition schemes and to expose their advantages and drawbacks. We proposed to overcome the image quality / frame rate trade-off by using temporally encoded ultrasound waves emitted simultaneously, and the generated direct model enabled the use of different inverse problem approaches in order to reconstruct the pulse-echo impulse response of the insonified medium and thus its image. Moreover, we further improved the direct model, which allowed us to directly link the backscattered echoes to the position / magnitude of the scatterers inside the imaged medium. The results yielded by the inverse problem approaches based on the former model put us face to face with state of the art method that not only increase the image quality several times in terms resolution and speckle coherence but also provide a boost in frame acquisition rate.

Page generated in 0.0216 seconds