Spelling suggestions: "subject:"convolutions"" "subject:"convolution""
11 |
La bimodalité de la parole au secours de la séparation de sourcesRivet, Bertrand 29 September 2006 (has links) (PDF)
Cette thèse est dédiée à la modélisation conjointe des modalités audio et vidéo de la parole et à son exploitation pour la séparation de sources. Tout d'abord, une modélisation probabiliste bimodale de la parole audiovisuelle à base de mélange de noyaux est proposée. Cette modélisation est ensuite exploitée pour la détection des silences. De plus, nous proposons une détection purement visuelle des silences en s'appuyant sur l'observation des lèvres du locuteur. Ce dernier procédé présente l'avantage d'être indépendant d'un bruit acoustique. Ces deux modélisations sont ensuite exploitées pour la séparation de mélanges convolutifs de sources audiovisuelles. Nous résolvons ainsi le problème classique des indéterminations des méthodes de séparation dans le domaine fréquentiel avant de proposer une méthode géométrique qui utilise les périodes de silence de la source d'intérêt. Les algorithmes proposés sont validés par des expériences sur des corpus multi-locuteurs et multi-langues.
|
12 |
Élaboration d'une méthode de détection et de caractérisation des occlusions présentes dans les nuages de points massifs de zones résidentiellesAlbert, William 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 18 mars 2024) / La fréquence et l'ampleur des dommages causés par les inondations au Canada augmentent chaque année, nécessitant des solutions préventives. Les étages inférieurs des bâtiments sont particulièrement vulnérables, justifiant la nécessité de détecter avec précision les ouvertures comme les portes et les fenêtres. Les nuages de points obtenus par télémétrie mobile sont bien adaptés pour identifier la présence de ces ouvertures sur les façades de bâtiments. Toutefois, la présence d'occlusions dans les nuages de points causées par des objets obstruant le faisceau LiDAR rend cette tâche complexe. Le présent projet de maîtrise vise à répondre à cette problématique en proposant une approche pour détecter et caractériser les occlusions dans les scènes acquises dans les milieux résidentiels et ruraux. La conception de la méthode est articulée autour de deux volets : la segmentation sémantique pour étiqueter le nuage de points et la détection d'occlusions par lancer de rayons. La méthode a été validée à partir de données simulées car elles permettent un contrôle total sur l'environnement et facilitent la visualisation des résultats. Cette analyse a ensuite été transposée sur les résultats obtenus à partir du nuage de points réel. Les résultats obtenus par la méthode proposée ont démontré une capacité à détecter la présence d'occlusions dans les milieux résidentiels et ruraux. La combinaison de la segmentation sémantique pour l'étiquetage du nuage de points avec la détection d'occlusions par lancers de rayons a permis une identification robuste des occlusions. Ces résultats soulignent l'efficacité de la solution dans des contextes réalistes, renforçant ainsi sa pertinence pour la détection précise des ouvertures sur les façades, une étape cruciale pour évaluer les risques liés aux inondations. La transposition réussie de l'analyse des données simulées aux résultats du nuage de points réel valide la robustesse de l'approche et son applicabilité dans des scénarios du monde réel. / The frequency and extent of flood damage in Canada increases every year, necessitating preventive solutions. The lower floors of buildings are particularly vulnerable, justifying the need for accurate detection of openings such as doors and windows. Point clouds obtained by mobile telemetry are suitable for identifying the presence of such openings on building facades. However, the presence of occlusions in the point clouds caused by objects obstructing the LiDAR beam makes this a complex task. The present Master's project aims to address this issue by proposing an approach for detecting and characterizing occlusions in scenes acquired in residential and rural environments. The method was designed around two components: semantic segmentation to label the point cloud, and occlusion detection using ray tracing. The method was validated using simulated data, as these allow total control over the environment and facilitate visualization of the results. This analysis was then transposed to results obtained from the real point cloud. The results obtained by the proposed method demonstrated an ability to detect the presence of occlusions in residential and rural environments. Combining semantic segmentation for point cloud labeling with occlusion detection by ray-tracing enabled robust occlusion identification. These results underline the effectiveness of the solution in realistic contexts, reinforcing its relevance for the accurate detection of facade openings, a crucial step in assessing flood risks. The successful transposition of simulated data analysis to real point cloud results validates the robustness of the approach and its applicability in real-world scenarios.
|
13 |
Association rules mining in massive datasets : an application to polypharmacy detectionBerteloot, Théophile 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 30 mai 2023) / Ce travail s'inscrit dans un projet de plus grande envergure, concernant la détection de polypharmacie potentiellement inappropriée, c'est-à-dire les combinaisons de 5 médicaments ou plus pris par un individu dans un court laps de temps entrainant des effets de santé indésirables. L'objectif de ce travail est de trouver une méthode efficace et rapide pour extraire un nombre raisonnable de lois d'association de qualité. Ici nos lois d'association mettent en relation des combinaisons de médicaments et des états médicaux. Nous nous sommes intéressés aux mesures permettant de juger la qualité d'une loi d'association ainsi que leur pertinence dans le projet. Ensuite, nous avons mis au point plusieurs méthodes permettant de miner des lois d'association. La première est une métaheuristique basée sur la période géologique appelée l'explosion cambrienne. Les métaheuristiques sont des algorithmes d'optimisation utilisant des processus stochastiques pour faire converger une population (un ensemble de solutions) vers l'optimum d'une fonction. Nous avons ensuite envisagé l'utilisation de réseaux de neurones profonds, plus précisément des auto-encodeurs. Nous avons alors créé l'algorithme ARM-AE qui utilise les auto-encodeurs et obtient de bonnes performances et surpasse les méthodes classiques sur plusieurs mesures de performance. Finalement, nous avons appliqué ARM-AE sur le jeu de données massives en santés de l'INSPQ (Institut national de santé publique du Québec) et nous fournissons une analyse des lois trouvées d'un point de vue statistique et médical. / This work is part of a larger project regarding the detection of potentially inappropriate polypharmacy leading to negative health effects in Quebec seniors. Polypharmacy is most often defined as a combinations of five or more medications taken at the same time by an individual. The objective of this work is to find an efficient and fast method to find a reasonable number of quality association rules. An association rule is an implication of the form A ⇒ C, which can be read as ”If A then C”, with A and C two sets of items, here the items are drugs and medical outcomes. We are interested in measures that allow to judge the quality of an association rule, as well as their relevance in the project. Then we develop several methods to mine association rules. The first one is a metaheuristic based on the geological period called the Cambrian explosion. Metaheuristics are optimisation algorithms using stochastic processes to converge a population (a set of solutions) to the optimum of a function. We then consider using deep neural networks, more precisely auto-encoders. We create the ARM-AE algorithm which uses auto-encoders and presents good performances and has several advantages over classical methods. Finally we apply ARM-AE on the massive healthcare dataset of the INSPQ (Institutnational de santé publique du Québec), and we provide an analysis of the rules found from a statistical and a medical point of view.
|
14 |
L'internet des objets médicaux (IoMT) appliqué aux soins de santé ambulatoires : prévention, détection et alertes intelligentes en boucle ferméeMascret, Quentin 19 July 2024 (has links)
Thèse ou mémoire avec insertion d'articles / L'expansion rapide de l'Internet des Objets Médicaux (IoMT) englobe une variété de technologies connectées dans le domaine de la santé. Toutefois, les dispositifs de mesure actuels, notamment les bracelets connectés, présentent des limitations qui entravent l'adoption généralisée de l'IoMT et leur utilisation pour la mesure précise et fiable de l'état de santé. Ces limitations se manifestent dans la nécessité d'une transmission continue des données vers des services distants, souvent dépendante de l'utilisation d'un smartphone ou d'une connexion Internet. De plus, l'utilisation prédominante de montres commerciales dans l'IoMT soulève des défis majeurs, tels que la dépendance énergétique liée à une connectivité Internet intensive, la nécessité fréquente de recharges, et le risque de surcharge d'informations due à un affichage continu des données. Une autre contrainte significative dans le contexte de l'IoMT est la dépendance à des serveurs locaux (edge servers) pour la réalisation d'opérations cruciales. De nombreuses applications nécessitent ces serveurs périphériques pour effectuer des traitements locaux, améliorant ainsi la réactivité du système et réduisant la dépendance aux ressources cloud. Cependant, cette dépendance introduit de nouveaux défis en termes de gestion des données, de sécurité et de latence. Cette recherche s'inscrit dans un contexte complexe où l'IoMT, malgré ses avantages potentiels, doit surmonter des obstacles liés à la transmission de données, à la dépendance énergétique des dispositifs, et à la nécessité d'une infrastructure robuste, telle que les serveurs locaux, pour réaliser des opérations cruciales. Ces défis sont particulièrement prégnants dans le cadre de l'extraction des signes vitaux et l'étude de l'activité physique humaine. Pour répondre à ces défis, ce projet de recherche vise à concevoir un bracelet intelligent intégrant des circuits analogiques-numériques pour l'acquisition brute de signaux physiologiques. L'objectif est d'extraire plusieurs signes vitaux, d'optimiser l'utilisation des capteurs en fonction de l'activité et des signes vitaux, d'effectuer des opérations complexes à grande vitesse avec une faible latence et une consommation d'énergie limitée. Le bracelet sera configurable et adaptable, utilisant une transmission sans fil efficace tout en conservant la trace de l'évolution des signes vitaux. Il en résulte trois grands axes de recherches. Un premier axe de recherche a permis de démontrer un système novateur d'analyse en temps réel de douze mouvements de l'activité physique humaine grâce à l'intégration d'apprentissage machine dans le capteur. Ce système, en utilisant les données brutes des capteurs inertiel, a permis de réduire considérablement les coûts computationnels tout en améliorant la précision de la machine à vecteur de support à noyau gaussien par l'utilisation d'une Normalisation Sphérique Multi-Mapping (NSMM) visant à améliorer la dispersion des données. Les résultats montrent une rétroaction de prédiction rapide avec une latence inférieure à 20 ms et une consommation d'énergie modérée tout en offrant une précision de 98.28%. De manière similaire, le deuxième axe de recherche s'est concentré sur le développement d'un bracelet intelligent intégrant plusieurs algorithmes d'IA permettant d'extraire en temps réel des signes vitaux, même lors d'artefacts de mouvement. Ces algorithmes, spécifiquement optimisés pour minimiser l'utilisation de la RAM et des ressources matérielles, permettent une mesure précise du rythme cardiaque, de la fréquence respiratoire et de la saturation en oxygène. L'introduction d'un algorithme intelligent de fusion de domaines maintien des performances élevées pour l'extraction des signes vitaux tout en réduisant l'utilisation de la RAM, même en présence d'artefacts de mouvement. Par ailleurs, le troisième axe de recherche a innové en déployant un modèle d'apprentissage automatique, une machine à vecteur support à noyau linéaire, embarqué dans un dispositif portable pour détecter en temps réel les chutes. L'optimisation du modèle a considérablement réduit l'utilisation de la RAM de 97.9%, tout en maintenant une précision élevée de 96.4% dans la détection des chutes. Bien que cette optimisation entraîne une légère augmentation de la latence, celle-ci reste inférieure à 132 ms, garantissant une détection efficace des chutes. En conclusion, ces recherches contribuent au développement de dispositifs portables intelligents intégrant l'apprentissage automatique pour la surveillance médicale en temps réel. Les méthodes innovantes, les algorithmes optimisés et les déploiements embarqués ouvrent des perspectives pratiques, notamment dans la prévention des blessures, les soins aux personnes âgées et la surveillance continue de la santé. Ces résultats enrichissent l'évolution de l'IoMT, en fournissant des solutions adaptées et efficaces aux contraintes des dispositifs portables. / The rapid expansion of the Internet of Medical Things (IoMT) encompasses a variety of connected technologies in the healthcare sector. However, current measurement devices, notably wearable devices like smartwatches, have limitations that hinder the widespread adoption of IoMT and their use for precise and reliable health monitoring. These limitations include the need for continuous data transmission to remote services, often reliant on a smartphone or Internet connection. Additionally, the prevalent use of commercial watches in IoMT poses major challenges, such as energy dependence due to intensive Internet connectivity, frequent recharging needs, and the risk of information overload from continuous data display. Another significant constraint in the IoMT context is the reliance on edge servers for crucial operations. Many applications require these peripheral servers for local processing, improving system responsiveness and reducing dependence on cloud resources. However, this dependence introduces new challenges in terms of data management, security, and latency. This research addresses a complex context where IoMT, despite its potential benefits, must overcome obstacles related to data transmission, device energy dependence, and the need for a robust infrastructure, such as edge servers, to perform critical operations. These challenges are particularly prevalent in vital signs extraction and human physical activity studies. To address these challenges, this research project aims to design a smart bracelet integrating analog-todigital circuits for raw physiological signal acquisition. The goal is to extract multiple vital signs, optimize sensor use based on activity and vital signs, perform complex operations at high speed with low latency and limited energy consumption. The bracelet will be configurable and adaptable, using efficient wireless transmission while keeping track of vital signs evolution. As a result, three main research axes emerge. The first axis demonstrates an innovative realtime analysis system for twelve human physical activity movements through machine learning integration into the sensor. Using raw inertial sensor data, this system significantly reduces computational costs while improving the accuracy of the Gaussian kernel support vector machine through the use of Multi-Mapping Spherical Normalization (MMSN) to improve data dispersion. The results show rapid prediction feedback with latency below 20 ms and moderate energy consumption while offering 98.28% accuracy. Similarly, the second research axis focused on developing a smart bracelet integrating multiple AI algorithms for real-time ex traction of vital signs, even during motion artifacts. These algorithms, specifically optimized to minimize RAM and hardware resource usage, allow for precise measurement of heart rate, respiratory rate, and oxygen saturation. The introduction of an intelligent domain fusion algorithm maintains high performance for vital signs extraction while reducing RAM usage, even in the presence of motion artifacts. Furthermore, the third research axis innovated by deploying a machine learning model, a linear kernel support vector machine, embedded in a wearable device for real-time fall detection. Model optimization significantly reduced RAM usage by 97.9%, while maintaining high detection accuracy of 96.4% for falls. Although this optimization leads to a slight increase in latency, it remains below 132 ms, ensuring effective fall detection. In conclusion, this research contributes to the development of smart wearable devices integrating machine learning for real-time medical monitoring. The innovative methods, optimized algorithms, and embedded deployments offer practical prospects, particularly in injury prevention, elderly care, and continuous health monitoring. These results enrich the evolution of IoMT by providing tailored and effective solutions to the constraints of wearable devices.
|
15 |
Méthodes de séparation aveugle de sources fondées sur des transformées temps-fréquence. Application à des signaux de parole.Puigt, Mathieu 13 December 2007 (has links) (PDF)
Plusieurs méthodes de séparation aveugle de source (SAS), fondées sur des transformées temps-fréquence (TF), ont été proposées au cours de cette thèse. En sortie des systèmes utilisés, une contribution de chaque source est estimée, uniquement à l'aide des signaux mélangés. Toutes les méthodes étudiées dans ce manuscrit trouvent des petites zones du plan TF où une seule source est présente et estiment dans ces zones les paramètres de mélange. Ces approches sont particulièrement adaptées aux sources non-stationnaires.<br />Nous avons tout d'abord étudié et amélioré des méthodes proposées précédemment par l'équipe, basées sur des critères de variance ou de corrélation, pour des mélanges linéaires instantanés. Elles apportent d'excellentes performances pour des signaux de parole et peuvent aussi séparer des spectres issus de données astrophysiques. Cependant, la nature des mélanges qu'elles peuvent traiter limite leur champ d'application.<br />Nous avons donc étendu ces approches à des mélanges plus réalistes. Les premières extensions considèrent des mélanges de sources atténuées et décalées temporellement, ce qui correspond physiquement aux mélanges en chambre anéchoïque. Elles nécessitent des hypothèses de parcimonie beaucoup moins fortes que certaines approches de la littérature, tout en traitant le même type de mélanges. Nous avons étudié l'apport de méthodes de classification non-supervisée sur nos approches et avons obtenu de bonnes performances pour des mélanges de signaux de parole.<br />Enfin, une extension théorique aux mélanges convolutifs généraux est décrite mais nécessite de fortes hypothèses de parcimonie et le réglage d'indéterminations propres aux méthodes fréquentielles.
|
16 |
Algorithmes temporels rapides à point fixe pour la séparation aveugle de mélanges convolutifs et/ou sous-déterminés.Thomas, Johan 12 December 2007 (has links) (PDF)
La première partie de cette thèse est consacrée aux mélanges convolutifs (sur-)déterminés. Nous cherchons à étendre l'algorithme FastICA aux mélanges convolutifs en proposant un algorithme à point fixe opérant dans le domaine temporel. Nous introduisons un processus de blanchiment spatio-temporel non-causal, qui, en initialisant les paramètres d'extraction d'une façon particulière, permet d'utiliser des itérations d'optimisation de type point fixe. L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener non-causal.<br /> Dans la deuxième partie, consacrée aux mélanges sous-déterminés instantanés et convolutifs, nous cherchons aussi à étendre l'algorithme FastICA en nous basant sur le concept de séparation différentielle. Nous proposons des procédures de blanchiment différentiel des observations qui permettent l'emploi d'itérations à point fixe pour séparer entre elles des sources dites utiles. En convolutif, les contributions sont estimées au moyen d'un filtre de Wiener différentiel non-causal. <br /> La troisième partie, consacrée aux mélanges instantanés de sources contenant un grand nombre d'échantillons, met d'abord en évidence une limitation de l'algorithme FastICA, qui, à chaque itération d'optimisation, calcule des statistiques sur l'ensemble des échantillons disponibles. Le critère du kurtosis étant polynômial relativement aux coefficients d'extraction, nous proposons une procédure d'identification de ce polynôme qui permet d'effectuer l'optimisation dans un espace de calcul moins gourmand. Ce principe est ensuite appliqué aux mélanges instantanés sous-déterminés.
|
17 |
Towards real-time image understanding with convolutional networks / Analyse sémantique des images en temps-réel avec des réseaux convolutifsFarabet, Clément 18 December 2013 (has links)
One of the open questions of artificial computer vision is how to produce good internal representations of the visual world. What sort of internal representation would allow an artificial vision system to detect and classify objects into categories, independently of pose, scale, illumination, conformation, and clutter ? More interestingly, how could an artificial vision system {em learn} appropriate internal representations automatically, the way animals and humans seem to learn by simply looking at the world ? Another related question is that of computational tractability, and more precisely that of computational efficiency. Given a good visual representation, how efficiently can it be trained, and used to encode new sensorial data. Efficiency has several dimensions: power requirements, processing speed, and memory usage. In this thesis I present three new contributions to the field of computer vision:(1) a multiscale deep convolutional network architecture to easily capture long-distance relationships between input variables in image data, (2) a tree-based algorithm to efficiently explore multiple segmentation candidates, to produce maximally confident semantic segmentations of images,(3) a custom dataflow computer architecture optimized for the computation of convolutional networks, and similarly dense image processing models. All three contributions were produced with the common goal of getting us closer to real-time image understanding. Scene parsing consists in labeling each pixel in an image with the category of the object it belongs to. In the first part of this thesis, I propose a method that uses a multiscale convolutional network trained from raw pixels to extract dense feature vectors that encode regions of multiple sizes centered on each pixel. The method alleviates the need for engineered features. In parallel to feature extraction, a tree of segments is computed from a graph of pixel dissimilarities. The feature vectors associated with the segments covered by each node in the tree are aggregated and fed to a classifier which produces an estimate of the distribution of object categories contained in the segment. A subset of tree nodes that cover the image are then selected so as to maximize the average "purity" of the class distributions, hence maximizing the overall likelihood that each segment contains a single object (...) / One of the open questions of artificial computer vision is how to produce good internal representations of the visual world. What sort of internal representation would allow an artificial vision system to detect and classify objects into categories, independently of pose, scale, illumination, conformation, and clutter ? More interestingly, how could an artificial vision system {em learn} appropriate internal representations automatically, the way animals and humans seem to learn by simply looking at the world ? Another related question is that of computational tractability, and more precisely that of computational efficiency. Given a good visual representation, how efficiently can it be trained, and used to encode new sensorial data. Efficiency has several dimensions: power requirements, processing speed, and memory usage. In this thesis I present three new contributions to the field of computer vision:(1) a multiscale deep convolutional network architecture to easily capture long-distance relationships between input variables in image data, (2) a tree-based algorithm to efficiently explore multiple segmentation candidates, to produce maximally confident semantic segmentations of images,(3) a custom dataflow computer architecture optimized for the computation of convolutional networks, and similarly dense image processing models. All three contributions were produced with the common goal of getting us closer to real-time image understanding. Scene parsing consists in labeling each pixel in an image with the category of the object it belongs to. In the first part of this thesis, I propose a method that uses a multiscale convolutional network trained from raw pixels to extract dense feature vectors that encode regions of multiple sizes centered on each pixel. The method alleviates the need for engineered features. In parallel to feature extraction, a tree of segments is computed from a graph of pixel dissimilarities. The feature vectors associated with the segments covered by each node in the tree are aggregated and fed to a classifier which produces an estimate of the distribution of object categories contained in the segment. A subset of tree nodes that cover the image are then selected so as to maximize the average "purity" of the class distributions, hence maximizing the overall likelihood that each segment contains a single object. The system yields record accuracies on several public benchmarks. The computation of convolutional networks, and related models heavily relies on a set of basic operators that are particularly fit for dedicated hardware implementations. In the second part of this thesis I introduce a scalable dataflow hardware architecture optimized for the computation of general-purpose vision algorithms, neuFlow, and a dataflow compiler, luaFlow, that transforms high-level flow-graph representations of these algorithms into machine code for neuFlow. This system was designed with the goal of providing real-time detection, categorization and localization of objects in complex scenes, while consuming 10 Watts when implemented on a Xilinx Virtex 6 FPGA platform, or about ten times less than a laptop computer, and producing speedups of up to 100 times in real-world applications (results from 2011)
|
18 |
Reconfigurable hardware acceleration of CNNs on FPGA-based smart cameras / Architectures reconfigurables pour l’accélération des CNNs. Applications sur cameras intelligentes à base de FPGAsAbdelouahab, Kamel 11 December 2018 (has links)
Les Réseaux de Neurones Convolutifs profonds (CNNs) ont connu un large succès au cours de la dernière décennie, devenant un standard de la vision par ordinateur. Ce succès s’est fait au détriment d’un large coût de calcul, où le déploiement des CNNs reste une tâche ardue surtout sous des contraintes de temps réel.Afin de rendre ce déploiement possible, la littérature exploite le parallélisme important de ces algorithmes, ce qui nécessite l’utilisation de plate-formes matérielles dédiées. Dans les environnements soumis à des contraintes de consommations énergétiques, tels que les nœuds des caméras intelligentes, les cœurs de traitement à base de FPGAs sont reconnus comme des solutions de choix pour accélérer les applications de vision par ordinateur. Ceci est d’autant plus vrai pour les CNNs, où les traitements se font naturellement sur un flot de données, rendant les architectures matérielles à base de FPGA d’autant plus pertinentes. Dans ce contexte, cette thèse aborde les problématiques liées à l’implémentation des CNNs sur FPGAs. En particulier, ces travaux visent à améliorer l’efficacité des implantations grâce à deux principales stratégies d’optimisation; la première explore le modèle et les paramètres des CNNs, tandis que la seconde se concentre sur les architectures matérielles adaptées au FPGA. / Deep Convolutional Neural Networks (CNNs) have become a de-facto standard in computer vision. This success came at the price of a high computational cost, making the implementation of CNNs, under real-time constraints, a challenging task.To address this challenge, the literature exploits the large amount of parallelism exhibited by these algorithms, motivating the use of dedicated hardware platforms. In power-constrained environments, such as smart camera nodes, FPGA-based processing cores are known to be adequate solutions in accelerating computer vision applications. This is especially true for CNN workloads, which have a streaming nature that suits well to reconfigurable hardware architectures.In this context, the following thesis addresses the problems of CNN mapping on FPGAs. In Particular, it aims at improving the efficiency of CNN implementations through two main optimization strategies; The first one focuses on the CNN model and parameters while the second one considers the hardware architecture and the fine-grain building blocks.
|
19 |
Etude de turbocodes non binaires pour les futurs systèmes de communication et de diffusion / Study of non-binary turbo codes for future communication and broadcasting systemsKlaimi, Rami 03 July 2019 (has links)
Les systèmes de téléphonie mobile de 4ème et 5ème générations ont adopté comme techniques de codage de canal les turbocodes, les codes LDPC et les codes polaires binaires. Cependant, ces codes ne permettent pas de répondre aux exigences, en termes d’efficacité spectrale et de fiabilité, pour les réseaux de communications futurs (2030 et au-delà), qui devront supporter de nouvelles applications telles que les communications holographiques, les véhicules autonomes, l’internet tactile … Un premier pas a été fait il y a quelques années vers la définition de codes correcteurs d’erreurs plus puissants avec l’étude de codes LDPC non binaires, qui ont montré une meilleure performance que leurs équivalents binaires pour de petites tailles de code et/ou lorsqu'ils sont utilisés sur des canaux non binaires. En contrepartie, les codes LDPC non binaires présentent une complexité de décodage plus importante que leur équivalent binaire. Des études similaires ont commencé à émerger du côté des turbocodes. Tout comme pour leurs homologues LDPC, les turbocodes non binaires présentent d’excellentes performances pour de petites tailles de blocs. Du point de vue du décodage, les turbocodes non binaires sont confrontés au même problème d’augmentation de la complexité de traitement que les codes LDPC non binaire. Dans cette thèse nous avons proposé une nouvelle structure de turbocodes non binaires en optimisant les différents blocs qui la constituent. Nous avons réduit la complexité de ces codes grâce à la définition d’un algorithme de décodage simplifié. Les codes obtenus ont montré des performances intéressantes en comparaison avec les codes correcteur d’erreur de la littérature. / Nowadays communication standards have adopted different binary forward error correction codes. Turbo codes were adopted for the long term evolution standard, while binary LDPC codes were standardized for the fifth generation of mobile communication (5G) along side with the polar codes. Meanwhile, the focus of the communication community is shifted towards the requirement of beyond 5G standards. Networks for the year 2030 and beyond are expected to support novel forward-looking scenarios, such as holographic communications, autonomous vehicles, massive machine-type communications, tactile Internet… To respond to the expected requirements of new communication systems, non-binary LDPC codes were defined, and they are shown to achieve better error correcting performance than the binary LDPC codes. This performance gain was followed by a high decoding complexity, depending on the field order.Similar studies emerged in the context of turbo codes, where the non-binary turbo codes were defined, and have shown promising error correcting performance, while imposing high complexity. The aim of this thesis is to propose a new low-complex structure of non-binary turbocodes. The constituent blocks of this structure were optimized in this work, and a new low complexity decoding algorithm was proposed targeting a future hardware implementation. The obtained results are promising, where the proposed codes are shown to outperform existing binary and non-binary codes from the literature.
|
20 |
Séparation de sources non linéaires dans le cas des mélanges convolutifsCastella, Marc 20 December 2004 (has links) (PDF)
Ce travail concerne la séparation aveugle de sources dans le contexte des mélanges convolutifs. La problématique est traitée dans le cas de sources non linéaires, non i.i.d. et aborde l'étude de critères dénommés "fonctions de contraste" dont la maximisation permet la séparation d'un mélange de sources. Parmi les méthodes de séparation dont nous étudions les contrastes, celles dites conjointes reconstituent les sources simultanément, tandis que les méthodes dites séquentielles extraient les sources les unes après les autres. Une alternative et une amélioration de la méthode séquentielle dite de "déflation" sont présentées. Deux applications, l'une aux signaux de télécommunication CPM (continuous phase modulation) et l'autre aux images illustrent le potentiel des méthodes séquentielles. Partant d'un point de vue semi-aveugle, des contrastes quadratiques sont enfin proposés. Ils offrent, y compris dans le cas aveugle, des performances très satisfaisantes et une rapidité d'optimisation accrue.
|
Page generated in 0.0473 seconds