• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux / Networks and signal : signal processing tools for network analysis

Tremblay, Nicolas 09 October 2014 (has links)
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique. / This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes.
242

Calcul hautes performances pour les formulations intégrales en électromagnétisme basses fréquences. Intégration, compression matricielle par ondelettes et résolution sur architecture GPGPU / High performance computing for integral formulations in low frequencies electromagnetism – Integration, wavelets matrix compression and solving on GPGPU architecture

Rubeck, Christophe 18 December 2012 (has links)
Les méthodes intégrales sont des méthodes particulièrement bien adaptées à la modélisation des systèmes électromagnétiques car contrairement aux méthodes par éléments finis elles ne nécessitent pas le maillage des matériaux inactifs tel que l'air. Ces modèles sont donc légers en terme du nombre de degrés de liberté. Cependant ceux sont des méthodes à interactions totales qui génèrent des matrices de systèmes d'équations pleines. Ces matrices sont longues à calculer en temps processeur et coûteuses à stocker dans la mémoire vive de l'ordinateur. Nous réduisons dans ces travaux les temps de calcul grâce au parallélisme, c'est-à-dire l'utilisation de plusieurs processeurs, notamment sur cartes graphiques (GPGPU). Nous réduisons également le coût du stockage mémoire via de la compression matricielle par ondelettes (il s'agit d'un algorithme proche de la compression d'images). C'est une compression par pertes, nous avons ainsi développé un critère pour contrôler l'erreur introduite par la compression. Les méthodes développées sont appliquées sur une formulation électrostatique de calcul de capacités, mais elles sont à priori également applicables à d'autres formulations. / Integral equation methods are widely used in electromagnetism modeling because, in opposition to finite element methods, they do not require the meshing of non-active materials like air. Therefore they lead to formulations with small degrees of freedom. However, they also lead to fully dense systems of equations. Computation times are expensive and the storage of the matrix is very expensive. This work presents different parallel computation strategies in order to speed up the computation time, in particular the use of graphical processing units (GPGPU) is focused. The next point is to reduce the memory requirements thanks to wavelets compression (it is an algorithm similar to image compression). The compression technique introduces errors, therefore a control criterion is proposed. The methodology is applied to an electrostatic formulation but it is general and it could also be used with others integral formulations.
243

Biosignals for driver's stress level assessment : functional variable selection and fractal characterization / Biosignaux pour l’évaluation du niveau de stress du conducteur : sélection des variables fonctionnelles et caractérisation fractale de l’activité électrodermale

El Haouij, Neska 04 July 2018 (has links)
La sécurité et le confort dans une tâche de conduite automobile sont des facteurs clés qui intéressent plusieurs acteurs (constructeurs, urbanistes, départements de transport), en particulier dans le contexte actuel d’urbanisation croissante. Il devient dès lors crucial d'évaluer l'état affectif du conducteur lors de la conduite, en particulier son niveau de stress qui influe sur sa prise de décision et donc sur ses performances de conduite. Dans cette thèse, nous nous concentrons sur l'étude des changements de niveau de stress ressenti durant une expérience de conduite réelle qui alterne ville, autoroute et repos. Les méthodes classiques sont basées sur des descripteurs proposés par des experts, appliquées sur des signaux physiologiques. Ces signaux sont prétraités, les descripteurs ad-hoc sont extraits et sont fusionnés par la suite pour reconnaître le niveau de stress. Dans ce travail, nous avons adapté une méthode de sélection de variables fonctionnelles, basée sur les forêts aléatoires, avec élimination récursive des descripteurs (RF-RFE). En effet, les biosignaux, considérés comme variables fonctionnelles, sont tout d’abord projetés sur une base d’ondelettes. L’algorithme RF-RFE est ensuite utilisé pour sélectionner les groupes d’ondelettes, correspondant aux variables fonctionnelles, selon un score d’endurance. Le choix final de ces variables est basé sur ce score proposé afin de quantifier la capacité d’une variable à être sélectionnée et dans les premiers rangs. Dans une première étape, nous avons analysé la fréquence cardiaque (HR), électromyogramme (EMG), fréquence respiratoire (BR) et activité électrodermale (EDA), issus de 10 expériences de conduite menées à Boston, de la base de données du MIT, drivedb. Dans une seconde étape, nous avons conduit 13 expériences in-vivo similaires, en alternant conduite dans la ville et sur autoroute dans la région de Grand Tunis. La base de données résultante, AffectiveROAD contient -comme dans drivedb- les biosignaux tels que le HR, BR, EDA mais aussi la posture. Le prototype de plateforme de réseau de capteurs développé, a permis de collecter des données environnementales à l’intérieur du véhicule (température, humidité, pression, niveau sonore et GPS) qui sont également inclues dans AffectiveROAD. Une métrique subjective de stress, basée sur l’annotation d’un observateur et validée a posteriori par le conducteur au vu des enregistrements vidéo acquis lors de l’expérience de conduite, complète cette base de données. Nous définissons ici la notion de stress par ce qui résume excitation, attention, charge mentale, perception de complexité de l'environnement par le conducteur. La sélection de variables fonctionnelles dans le cas de drivedb a révélé que l'EDA mesurée au pied est l'indicateur le plus révélateur du niveau de stress du conducteur, suivi de la fréquence respiratoire. La méthode RF-RFE associée à des descripteurs non experts, conduit à des performances comparables à celles obtenues par la méthode basée sur les descripteurs sélectionnés par les experts. En analysant les données d’AffectiveROAD, la posture et l’EDA mesurée sur le poignet droit du conducteur ont émergé comme les variables les plus pertinentes. Une analyse plus approfondie de l'EDA a par la suite été menée car ce signal a été retenu, pour les deux bases de données, parmi les variables fonctionnelles sélectionnées pour la reconnaissance du niveau de stress. Ceci est cohérent avec diverses études sur la physiologie humaine qui voient l’EDA comme un indicateur clé des émotions. Nous avons ainsi exploré le caractère fractal de ce biosignal à travers une analyse d'auto-similarité et une estimation de l'exposant de Hurst basée sur les ondelettes. L'analyse montre un comportement d’auto-similarité des enregistrements de l'EDA pour les deux bases de données, sur une large gamme d’échelles. Ceci en fait un indicateur potentiel temps réel du stress du conducteur durant une expérience de conduite réelle. / The safety and comfort in a driving task are key factors of interest to several actors (vehicle manufacturers, urban space designers, and transportation service providers), especially in a context of an increasing urbanization. It is thus crucial to assess the driver’s affective state while driving, in particular his state of stress which impacts the decision making and thus driving task performance. In this thesis, we focus on the study of stress level changes, during real-world driving, experienced in city versus highway areas. Classical methods are based on features selected by experts, applied to physiological signals. These signals are preprocessed using specific tools for each signal, then ad-hoc features are extracted and finally a data fusion for stress-level recognition is performed. In this work, we adapted a functional variable selection method, based on Random Forests Recursive Feature Elimination (RF-RFE). In fact, the biosignals considered as functional variables, are first decomposed using wavelet basis. The RF-RFE algorithms are then used to select groups of wavelets coefficients, corresponding to the functional variables, according to an endurance score. The final choice of the selected variables relies on this proposed score that allows to quantify the ability of a variable to be selected and this, in first ranges. At a first stage, we analyzed physiological signals such as: Heart Rate (HR), Electromyogram (EMG), Breathing Rate (BR), and the Electrodermal Activity (EDA), related to 10 driving experiments, extracted from the open database of MIT: drivedb, carried out in Boston area. At a second stage, we have designed and conducted similar city and highway driving experiments in the greater Tunis area. The resulting database, AffectiveROAD, includes, as in drivedb, biosignals as HR, BR and EDA and additional measurement of the driver posture. The developed prototype of the sensors network platform allowed also to gather data characterizing the vehicle internal environment (temperature, humidity, pressure, sound level, and geographical coordinates) which are included in AffectiveROAD database. A subjective stress metric, based on driver video-based validation of the observer’s annotation, is included in AffectiveROAD database. We define here the term stress as the human affective state, including affect arousal, attention, mental workload, and the driver’s perception of the environment complexity. The functional variable selection, applied to drivedb, revealed that the EDA captured on foot followed by the BR, are relevant in the driver’s stress level classification. The RF-RFE method along with non-expert based features offered comparable performances to those obtained by the classical method. When analyzing the AffectiveROAD data, the posture and the EDA captured on the driver’s right wrist emerged as the most enduring variables. For both databases, the placement of the EDA sensor came out as an important consideration in the stress level assessment. A deeper analysis of the EDA was carried out since its emergence as a key indicator in stress level recognition, for the two databases. This is consistent with various human physiology studies reporting that the EDA is a key indicator of emotions. For that, we investigated the fractal properties of this biosignal using a self-similarity analysis of EDA measurements based on Hurst exponent (H) estimated using wavelet-based method. Such study shows that EDA recordings exhibits self-similar behavior for large scales, for the both databases. This proposes that it can be considered as a potential real-time indicator of stress in real-world driving experience.
244

Acquisition comprimée multi-longueur d'onde et son application en radioastronomie / Multichannel Compressed Sensing and its Application in Radioastronomy

Jiang, Ming 10 November 2017 (has links)
La nouvelle génération d’instrument d’interféromètre radio, tels que LOFAR et SKA, nous permettra de construire des images radio à haute résolution angulaire et avec une bonne sensibilité. L’un des problèmes majeurs de l’imagerie interférométrie est qu’il s’agit d’un problème inverse mal posé car seulement quelques coefficients de Fourier (visibilités) peuvent être mesurés par un interféromètre radio. La théorie de l’Acquisition Comprimée (Compressed Sensing) nous permet d’envisager ce problème sous un autre angle et son efficacité pour la radioastronomie a été montrée. Cette thèse se concentre sur la méthodologie de la reconstruction de données à l’Acquisition Comprimée Multicanaux et son application en radioastronomie. Par exemple, les transitoires radios sont un domaine de recherche actif en radioastronomie, mais leur détection est un problème difficile en raison de la faible résolution angulaire et des observations à faible rapport signal-sur-bruit. Pour résoudre ce problème, nous avons exploité la parcimonie de l’information temporelle des transitoires radios et nous avons proposé une méthode de reconstruction spatio-temporelle pour détecter efficacement les sources radios. Les expériences ont démontré la force de cette méthode de reconstruction en comparaison avec les méthodes de l’état de l’art. Une deuxième application concerne l’imagerie interférométrie radio à multi-longueur d’onde dans lesquelles les données sont dégradées différemment en termes de longueur d’onde car la réponse instrumentale varie en fonction de la longueur d’onde. Basé sur le modèle de mélange de sources, un nouveau modèle est proposé pour effectuer de manière jointe une Séparation de Sources en Aveugle et une déconvolution (SSAD). Le problème SSAD n’est pas seulement non-convexe mais aussi mal conditionné en raison des noyaux de convolution. Notre méthode proposée DecGMCA, qui utilise un a priori de parcimonie et emploie un scénario de moindre carré alternatif, est un algorithme efficace pour aborder simultanément les problèmes de déconvolution et de SSA. Les expériences ont démontré que notre approche jointe permet d’obtenir de meilleurs résultats comparée à une analyse standard consistant en une application séquentielle d’une déconvolution suivie d’une séparation de sources en aveugle. / The new generation of radio interferometer instruments, such as LOFAR and SKA, will allow us to build radio images with very high angular resolution and sensitivity. One of the major problems in interferometry imaging is that it involves an ill-posed inverse problem, because only a few Fourier components (visibility points) can be acquired by a radio interferometer. Compressed Sensing (CS) theory is a paradigm to solve many underdetermined inverse problems and has shown its strength in radio astronomy. This thesis focuses on the methodology of Multichannel Compressed Sensing data reconstruction and its application in radio astronomy. For instance, radio transients are an active research field in radio astronomy but their detection is a challenging problem because of low angular resolution and low signal-to-noise observations. To address this issue, we investigated the sparsity of temporal information of radio transients and proposed a spatial-temporal sparse reconstruction method to efficiently detect radio sources. Experiments have shown the strength of this sparse recovery method compared to the state-of-the-art methods. A second application is concerned with multi-wavelength radio interferometry imaging in which the data are degraded differently in terms of wavelength due to the wavelength-dependent varying instrumental beam. Based on a source mixture model, a novel Deconvolution Blind Source Separation (DBSS) model is proposed. The DBSS problem is not only non-convex but also ill conditioned due to convolution kernels. Our proposed DecGMCA method, which benefits from a sparsity prior and leverages an alternating projected least squares, is an efficient algorithm to tackle simultaneously the deconvolution and BSS problems. Experiments have shown that taking into account joint deconvolution and BSS gives much better results than applying sequential deconvolution and BSS.
245

Contributions to SAR Image Time Series Analysis / Contributions à l'analyse de séries temporelles d'images SAR

Mian, Ammar 26 September 2019 (has links)
La télédétection par Radar à Synthèse d’Ouverture (RSO) offre une opportunité unique d’enregistrer, d’analyser et de prédire l’évolution de la surface de la Terre. La dernière décennie a permis l’avènement de nombreuses missions spatiales équipées de capteurs RSO (Sentinel-1, UAVSAR, TerraSAR X, etc.), ce qui a engendré une rapide amélioration des capacités d’acquisition d’images de la surface de la Terre. Le nombre croissant d’observations permet maintenant de construire des bases de données caractérisant l’évolution temporelle d’images, augmentant considérablement l’intérêt de l’analyse de séries temporelles pour caractériser des changements qui ont lieu à une échelle globale. Cependant, le développement de nouveaux algorithmes pour traiter ces données très volumineuses est un défi qui reste à relever. Dans ce contexte, l’objectif de cette thèse consiste ainsi à proposer et à développer des méthodologies relatives à la détection de changements dans les séries d’images ROS à très haute résolution spatiale.Le traitement de ces séries pose deux problèmes notables. En premier lieu, les méthodes d’analyse statistique performantes se basent souvent sur des données multivariées caractérisant, dans le cas des images RSO, une diversité polarimétrique, interférométrique, par exemple. Lorsque cette diversité n’est pas disponible et que les images RSO sont monocanal, de nouvelles méthodologies basées sur la décomposition en ondelettes ont été développées. Celles-ci permettent d’ajouter une diversité supplémentaire spectrale et angulaire représentant le comportement physique de rétrodiffusion des diffuseurs présents la scène de l’image. Dans un second temps, l’amélioration de la résolution spatiale sur les dernières générations de capteurs engendre une augmentation de l’hétérogénéité des données obtenues. Dans ce cas, l’hypothèse gaussienne, traditionnellement considérée pour développer les méthodologies standards de détection de changements, n’est plus valide. En conséquence, des méthodologies d’estimation robuste basée sur la famille des distributions elliptiques, mieux adaptée aux données, ont été développées.L’association de ces deux aspects a montré des résultats prometteurs pour la détection de changements.Le traitement de ces séries pose deux problèmes notables. En premier lieu, les méthodes d’analyse statistique performantes se basent souvent sur des données multivariées caractérisant, dans le cas des images RSO, une diversité polarimétrique ou interférométrique, par exemple. Lorsque cette diversité n’est pas disponible et que les images RSO sont monocanal, de nouvelles méthodologies basées sur la décomposition en ondelettes ont été développées. Celles-ci permettent d’ajouter une diversité spectrale et angulaire supplémentaire représentant le comportement physique de rétrodiffusion des diffuseurs présents la scène de l’image. Dans un second temps, l’amélioration de la résolution spatiale sur les dernières générations de capteurs engendre une augmentation de l’hétérogénéité des données obtenues. Dans ce cas, l’hypothèse gaussienne, traditionnellement considérée pour développer les méthodologies standards de détection de changements, n’est plus valide. En conséquence, des méthodologies d’estimation robuste basée sur la famille des distributions elliptiques, mieux adaptée aux données, ont été développées.L’association de ces deux aspects a montré des résultats prometteurs pour la détection de changements. / Remote sensing data from Synthetic Aperture Radar (SAR) sensors offer a unique opportunity to record, to analyze, and to predict the evolution of the Earth. In the last decade, numerous satellite remote sensing missions have been launched (Sentinel-1, UAVSAR, TerraSAR X, etc.). This resulted in a dramatic improvement in the Earth image acquisition capability and accessibility. The growing number of observation systems allows now to build high temporal/spatial-resolution Earth surface images data-sets. This new scenario significantly raises the interest in time-series processing to monitor changes occurring over large areas. However, developing new algorithms to process such a huge volume of data represents a current challenge. In this context, the present thesis aims at developing methodologies for change detection in high-resolution SAR image time series.These series raise two notable challenges that have to be overcome:On the one hand, standard statistical methods rely on multivariate data to infer a result which is often superior to a monovariate approach. Such multivariate data is however not always available when it concerns SAR images. To tackle this issue, new methodologies based on wavelet decomposition theory have been developed to fetch information based on the physical behavior of the scatterers present in the scene.On the other hand, the improvement in resolution obtained from the latest generation of sensors comes with an increased heterogeneity of the data obtained. For this setup, the standard Gaussian assumption used to develop classic change detection methodologies is no longer valid. As a consequence, new robust methodologies have been developed considering the family of elliptical distributions which have been shown to better fit the observed data.The association of both aspects has shown promising results in change detection applications.
246

Preliminary study for detection and classification of swallowing sound / Étude préliminaire de détection et classification des sons de la déglutition

Khlaifi, Hajer 21 May 2019 (has links)
Les maladies altérant le processus de la déglutition sont multiples, affectant la qualité de vie du patient et sa capacité de fonctionner en société. La nature exacte et la gravité des changements post/pré-traitement dépendent de la localisation de l’anomalie. Une réadaptation efficace de la déglutition, cliniquement parlant, dépend généralement de l’inclusion d’une évaluation vidéo-fluoroscopique de la déglutition du patient dans l’évaluation post-traitement des patients en risque de fausse route. La restriction de cette utilisation est due au fait qu’elle est très invasive, comme d’autres moyens disponibles, tels que la fibre optique endoscopique. Ces méthodes permettent d’observer le déroulement de la déglutition et d’identifier les lieux de dysfonctionnement, durant ce processus, avec une précision élevée. "Mieux vaut prévenir que guérir" est le principe de base de la médecine en général. C’est dans ce contexte que se situe ce travail de thèse pour la télésurveillance des malades et plus spécifiquement pour suivre l’évolution fonctionnelle du processus de la déglutition chez des personnes à risques dysphagiques, que ce soit à domicile ou bien en institution, en utilisant le minimum de capteurs non-invasifs. C’est pourquoi le principal signal traité dans ce travail est le son. La principale problématique du traitement du signal sonore est la détection automatique du signal utile du son, étape cruciale pour la classification automatique de sons durant la prise alimentaire, en vue de la surveillance automatique. L’étape de la détection du signal utile permet de réduire la complexité du système d’analyse sonore. Les algorithmes issus de l’état de l’art traitant la détection du son de la déglutition dans le bruit environnemental n’ont pas montré une bonne performance. D’où l’idée d’utiliser un seuil adaptatif sur le signal, résultant de la décomposition en ondelettes. Les problématiques liées à la classification des sons en général et des sons de la déglutition en particulier sont abordées dans ce travail avec une analyse hiérarchique, qui vise à identifier dans un premier temps les segments de sons de la déglutition, puis à le décomposer en trois sons caractéristiques, ce qui correspond parfaitement à la physiologie du processus. Le couplage est également abordé dans ce travail. L’implémentation en temps réel de l’algorithme de détection a été réalisée. Cependant, celle de l’algorithme de classification reste en perspective. Son utilisation en clinique est prévue. / The diseases affecting and altering the swallowing process are multi-faceted, affecting the patient’s quality of life and ability to perform well in society. The exact nature and severity of the pre/post-treatment changes depend on the location of the anomaly. Effective swallowing rehabilitation, clinically depends on the inclusion of a video-fluoroscopic evaluation of the patient’s swallowing in the post-treatment evaluation. There are other available means such as endoscopic optical fibre. The drawback of these evaluation approaches is that they are very invasive. However, these methods make it possible to observe the swallowing process and identify areas of dysfunction during the process with high accuracy. "Prevention is better than cure" is the fundamental principle of medicine in general. In this context, this thesis focuses on remote monitoring of patients and more specifically monitoring the functional evolution of the swallowing process of people at risk of dysphagia, whether at home or in medical institutions, using the minimum number of non-invasive sensors. This has motivated the monitoring of the swallowing process based on the capturing only the acoustic signature of the process and modeling the process as a sequence of acoustic events occuring within a specific time frame. The main problem of such acoustic signal processing is the automatic detection of the relevent sound signals, a crucial step in the automatic classification of sounds during food intake for automatic monitoring. The detection of relevant signal reduces the complexity of the subsequent analysis and characterisation of a particular swallowing process. The-state-of-the-art algorithms processing the detection of the swallowing sounds as distinguished from environmental noise were not sufficiently accurate. Hence, the idea occured of using an adaptive threshold on the signal resulting from wavelet decomposition. The issues related to the classification of sounds in general and swallowing sounds in particular are addressed in this work with a hierarchical analysis that aims to first identify the swallowing sound segments and then to decompose them into three characteristic sounds, consistent with the physiology of the process. The coupling between detection and classification is also addressed in this work. The real-time implementation of the detection algorithm has been carried out. However, clinical use of the classification is discussed with a plan for its staged deployment subject to normal processes of clinical approval.
247

Logarithmic Discrete Wavelet Transform For High Quality Medical Image Compression / Ondelette discrète logarithmique transformée pour une compression d'image médicale de grande qualité

Ibraheem, Mohammed Shaaban 29 March 2017 (has links)
De nos jours, la compression de l'image médicale est un processus essentiel dans les systèmes de cybersanté. Compresser des images médicales de haute qualité est une exigence vitale pour éviter de mal diagnostiquer les examens médicaux par les radiologues. WAAVES est un algorithme de compression d'images médicales prometteur basé sur la transformée en ondelettes discrètes (DWT) qui permet d'obtenir une performance de compression élevée par rapport à l'état de la technique. Les principaux objectifs de ce travail sont d'améliorer la qualité d'image lors de la compression à l'aide de WAAVES et de fournir une architecture DWT haute vitesse pour la compression d'image sur des systèmes embarqués. En ce qui concerne l'amélioration de la qualité, les systèmes de nombres logarithmiques (LNS) ont été explorés pour être utilisés comme une alternative à l'arithmétique linéaire dans les calculs de DWT. Une nouvelle bibliothèque LNS a été développée et validée pour réaliser le DWT logarithmique. En outre, une nouvelle méthode de quantification appelée (LNS-Q) basée sur l'arithmétique logarithmique a été proposée. Un nouveau schéma de compression (LNS-WAAVES) basé sur l'intégration de la méthode Hybrid-DWT et de la méthode LNS-Q avec WAAVES a été développé. Hybrid-DWT combine les avantages des domaines logarithmique et linéaire conduisant à l'amélioration de la qualité d'image et du taux de compression. Les résultats montrent que LNS-WAAVES est capable d'obtenir une amélioration de la qualité d'un pourcentage de 8% et de 34% par rapport aux WAAVES en fonction des paramètres de configuration de compression et des modalités d'image. Pour la compression sur les systèmes embarqués, le défi majeur consistait à concevoir une architecture 2D DWT qui permet d'obtenir un débit de 100 trames full HD. Une nouvelle architecture unifiée de calcul 2D DWT a été proposée. Cette nouvelle architecture effectue à la fois des transformations horizontale et verticale simultanément et élimine le problème des accès de pixel d'image en colonne à partir de la RAM DDR hors-puce. Tous ces facteurs ont conduit à une réduction de la largeur de bande DDR RAM requise de plus de 2X. Le concept proposé utilise des tampons de ligne à 4 ports conduisant à quatre opérations en parallèle pipeline: la DWT verticale, la transformée DWT horizontale et les opérations de lecture / écriture vers la mémoire externe. L'architecture proposée a seulement 1/8 de cycles par pixel (CPP) lui permettant de traiter plus de 100fps Full HD et est considérée comme une solution prometteuse pour le futur traitement vidéo 4K et 8K. Enfin, l'architecture développée est hautement évolutive, surperforme l'état de l'art des travaux connexes existants, et est actuellement déployé dans un prototype médical EEG vidéo. / Nowadays, medical image compression is an essential process in eHealth systems. Compressing medical images in high quality is a vital demand to avoid misdiagnosing medical exams by radiologists. WAAVES is a promising medical images compression algorithm based on the discrete wavelet transform (DWT) that achieves a high compression performance compared to the state of the art. The main aims of this work are to enhance image quality when compressing using WAAVES and to provide a high-speed DWT architecture for image compression on embedded systems. Regarding the quality improvement, the logarithmic number systems (LNS) was explored to be used as an alternative to the linear arithmetic in DWT computations. A new LNS library was developed and validated to realize the logarithmic DWT. In addition, a new quantization method called (LNS-Q) based on logarithmic arithmetic was proposed. A novel compression scheme (LNS-WAAVES) based on integrating the Hybrid-DWT and the LNS-Q method with WAAVES was developed. Hybrid-DWT combines the advantages of both the logarithmic and the linear domains leading to enhancement of the image quality and the compression ratio. The results showed that LNS-WAAVES is able to achieve an improvement in the quality by a percentage of 8% and up to 34% compared to WAAVES depending on the compression configuration parameters and the image modalities. For compression on embedded systems, the major challenge was to design a 2D DWT architecture that achieves a throughput of 100 full HD frame/s. A novel unified 2D DWT computation architecture was proposed. This new architecture performs both horizontal and vertical transform simultaneously and eliminates the problem of column-wise image pixel accesses to/from the off-chip DDR RAM. All of these factors have led to a reduction of the required off-chip DDR RAM bandwidth by more than 2X. The proposed concept uses 4-port line buffers leading to pipelined parallel four operations: the vertical DWT, the horizontal DWT transform, and the read/write operations to the external memory. The proposed architecture has only 1/8 cycles per pixel (CPP) enabling it to process more than 100fps Full HD and it is considered a promising solution for future 4K and 8K video processing. Finally, the developed architecture is highly scalable, outperforms the state of the art existing related work, and currently is deployed in a video EEG medical prototype.
248

Ondelettes et applications en imagerie et en calcul de surfaces

Waku Kouomou, Jules 04 November 1993 (has links) (PDF)
Cette these presente des travaux sur les aspects theoriques de la transformation en ondelettes et quelques applications en imagerie et en calcul de surface. Nous presentons trois approches de construction d'une base d'ondelettes, a savoir l'approche theorie des groupes. l'approche analyse multiresolution et l'approche banc de filtres. Les applications de la transformee en ondelettes portent sur la compression d'image, la representation de courbes discretes et le calcul de l'approximation d'une surface par les fonctions radiales. Nous commencons par un survol de differentes techniques de compression. Nous montrons graphiquement et numeriquement que les transformations en ondelettes, comparativement aux autres methodes pyramidales (Brt et Adelson) permettent d'anvisager de tres bons resultats de compression. On montre que parmi les representations hierarchiques, la representation par ondelettes est celle qui permet de preserver au mieux les indices visuels dans le cadre de la construction d'un modele numerique de terrain par exemple. En ce qui concerne la representation des courbes discrete, nous avons mis au point un algorithme d'analyse et de synthese multi-echelles. Ce nouvel algorithme s'applique a des directions elementaires correspondant a une suite de Freeman representant un contour discret ou une courbe discrete. On montre que l'ondelette de Haar permet d'obtenir une bonne representation multi-echelle d'une courbe discrete avec une taille memoire faible et un cout de calcul minimal. Enfin, apres avoir pose dans le cadre general le probleme d'interpolation par les fonctions radiales et presente une analyse des conditions d'existence de la solution, nous proposons une nouvelle approche de resolution de systeme lineaire qui definit les parametres du probleme. Notre approche est fondee sur la transformation en ondelettes et permet de rendre creuse la matrice du systeme. nous montrons la performance de cette approche surtout quand le nombre de donnees est important. Les resultats d'interpolation d'une surface par une spline de type plaque mince ou multiquadratique sont presentes. En particulier, nous avons teste les ondelettes splines, les ondelettes a support compact et les ondelettes biorthogonales. Les resultats graphiques sont accompagnes des estimations numeriques des erreurs, ceci permettant une meilleure appreciation des demarches proposees.
249

Propriétés qualitatives de solutions de quelques équations paraboliques semi-linéaires.

Brandolese, Lorenzo 08 December 2010 (has links) (PDF)
Ce mémoire constitue un travail de synthèse de nos travaux dans le domaine des équations aux dérivées partielles, notamment les équations non-linéaires de type parabolique. Les modèles traités ici sont issus principalement de la mécanique des fluides, de la géophysique, ou des bio-mathématiques ; dans d'autres cas les motivations viennent de la théorie des probabilités. On touchera ici aux questions centrales de l'existence, de l'unicité, ou de l'explosion en temps fini des solutions, qui occupent une place importante dans nos travaux, ainsi qu'à leur comportement asymptotique. C'est précisément l'étude de propriétés fines sur le comportement en temps long, ou sur le comportement à l'infini en variable d'espace sous de différentes perspectives (dissipation de l'énergie, croissance ou décroissance temporelle, profils asymptotiques, autosimilarité, diffusion spatiale, questions de localisation, etc.) qui représente notre contribution la plus importante. Les équations de Navier–Stokes constituent un défi remarquable pour toutes ces questions : en effet, il est rare que des techniques ou idées standards apportent des avancées vraiment significatives dans ce modèle. C'est pourquoi ces équations occupent une place privilégiée dans nos travaux. Le premier chapitre est donc consacré au système de Navier–Stokes, et le deuxième à d'autres modèles de la mécanique des fluides incompressibles (magnéto–hydrodynamique, système de Boussinesq, etc.) qui sont des généralisations assez naturelles de celui-ci. On insistera notamment sur l'étude de propriétés qualitatives des solutions qui sont spécifiques à chacun de ces modèles. Dans le troisième chapitre nous abordons le problème de la stabilité des écoulement stationnaires. Le quatrième chapitre est consacré à l'étude de l'autosimilarité : nous aurons alors l'opportunité de revenir sur les équations de Navier–Stokes, mais aussi d'introduire d'autres systèmes, et d'étudier une équation non-locale de convection avec diffusion non-standard. Dans le cinquième chapitre nous nous intéressons à deux modèles bien connus en chimiotactisme : nous y présentons nos travaux sur la convergence du système parabolique-parabolique de Keller–Segel vers le système parabolique–elliptique, ainsi qu'un théorème d'explosion. Dans le dernier chapitre nous illustrons les résultats de deux articles, dans lesquels nous apportons une contribution à l'analyse fonctionnelle et harmonique, sur des questions liées à la théorie des multiplicateurs dans les espaces de Sobolev, à la théorie de l'approximation et aux bases d'ondelettes. Ces deux contributions à l'Analyse, a priori assez indépendantes du reste de notre production, n'en sont pas complètement déconnectées. En effet de différentes techniques d'analyse harmonique apparaissent souvent dans nos démonstrations : l'analyse de Fourier classique d'abord (la méthode de Fourier splitting par exemple), qui conduit à des résultats souvent optimaux dans l'étude du comportement en temps long des solutions ; l'analyse de Littlewood–Paley est un outil puissant pour prouver des résultats d'existence ou d'unicité ; les espaces de Besov permettent non seulement de mesurer avec précision la régularité des solutions, mais ils peuvent également nous renseigner sur leur caractère oscillant. Nous avons aussi été amenés à développer certains aspects de la théorie des espaces à poids afin de résoudre un problème de localisation en magnéto-hydrodynamique. De plus, la plupart des modèles que nous avons étudiés ont une nature non locale : la perturbation d'une quantité dans une région de l'espace a des répercussions importantes sur le comportement du système entier, même à de grandes distances. Nous abordons l'étude de ces modèles en les réécrivant sous une forme pseudo-différentielle. Les applications de la théorie des intégrales singulières sont, alors, souvent décisives dans notre travail. Les sections 1.1.1 et 1.1.2 présentent des résultats directement issus de la thèse. Le chapitre 6 est lui aussi étroitement lié à la thèse, bien que les théorèmes qu'ils y sont présentés aient été ré-élaborés assez en profondeur. Le reste du chapitre 1 et les chapitres 2 à 5 contiennent nos résultats plus récents. Ces chapitres se terminent par une section illustrant des perspectives, ainsi que quelques pistes pour des recherches futures.
250

Etude d'un jet rectangulaire supersonique à nombre de Mach 1.45 vectorisé par actionneur fluidique

Jaunet, Vincent 13 December 2010 (has links) (PDF)
La vectorisation de poussée par actionneurs fluidiques permet d'accroître la manoeuvrabilité des appareils tout en minimisant l'impact sur la masse de l'engin. La petite dimension de la section d'éjection d'une tuyère rectangulaire a été modifiée et équipée d'un actionneur pneumatique, dans l'objectif d'étudier la vectorisation en lacet du jet. Les performances en vectorisation du jet sont investiguées par l'intermédiaire de mesures par vélocimétrie par images de particules (PIV) ; les résultats d'une modélisation numérique RANS, associés aux visualisations expérimentales, permettent d'établir un scénario des mécanismes responsables de la mise en mouvement de l'écoulement. Une discussion quant aux limitations du dispositif peut alors être apportée. Les résultats d'une campagne de mesure par vélocimétrie laser Doppler dans le sillage de l'actionneur permettent de quantifier l'impact de la vectorisation sur la couche de mélange. Il s'avère de plus, que les modifications apportées à la buse génèrent un réseau de chocs particulier qui, associé à l'acoustique se propageant dans la partie subsonique de l'écoulement, impose au jet un battement transversal bidimensionnel très important. La dynamique de ce battement est étudiée par l'intermédiaire d'une analyse par décomposition orthogonale aux valeurs propres (POD) appliquée à des visualisations strioscopiques. On démontre alors le couplage entre le battement du jet et les ondes acoustiques non linéaires dans la région subsonique. Cette dynamique se révèle très robuste, puisqu'encore présente en régime vectorisé.

Page generated in 0.0749 seconds