• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 41
  • 31
  • Tagged with
  • 111
  • 111
  • 27
  • 17
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Imagerie polarimétrique adaptée en lumière cohérente / Adapted Polarimetric Imaging with Coherent Light

Upadhyay, Debajyoti 14 February 2014 (has links)
Nous proposons dans cette thèse d’étudier une méthode d’imagerie qui s’adapte à la scène étudiée en utilisant des états polarimétriques choisis sur critères physiques pour optimiser le contraste polarimétrique en 2 zones aux propriétés polarimétriques différentes. En prenant en compte le bruit de Grenaille du détecteur, cette nouvelle technique d’imagerie à 2 canaux nommée APSCI montre un gain en contraste quantifié par la distance de Bhattacharyya pouvant atteindre un facteur 10 par rapport à l’imagerie de Mueller. D’autre part, elle utilise la totalité de l’information polarimétrique de la scène pour générer une seule image au contraste optimum ce qui la rend particulièrement performante pour distinguer deux zones aux propriétés polarimétriques légèrement différentes. La solution analytique complète de ce problème est proposée au chapitre suivant avec des illustrations associées. Le modèle proposé permet, en plus d’une interprétation physique, de quantifier les performances limites de la méthode APSCI en fonction des matrices de Mueller des 2 objets à discerner. Le chapitre suivant est consacré à l’étude des performances de cette méthode soumise au bruit optique de tavelure de cible. Les simulations numériques montrent que les performances de cette méthode en terme de contraste polarimétrique restent relativement robustes et souvent très supérieures à celles obtenues par l’imagerie de Mueller classique. Le dernier chapitre consiste à décrire l’implémentation expérimentale nécessaire à l’adaptation d’un imageur de Mueller en imageur APSCI en vue d’obtenir un imageur hybride Mueller/APSCI. La méthode APSCI nécessite de pouvoir utiliser en émission et en projection lors de la détection. / We propose in this thesis to study and imaging method which is adapted to the scene under investigation by the use of specific polarimetric excitations. The scenes under inversigation have two separate regions with different polarimetric properties. The specific fully polarized state of illumination is found by the physical criteria for oprimizing the polarimetric constrat in two aereas with different polarization properties. Taking into account the Shot noise of the detector, this new 2 channel imaging technique named APSCI, shows a gain in contrast quantified by the Bhattacharyya distance of up to a factor of 10 compared to what is achievable from classical Mueller imagnin. On the other hand, it uses the full polarimetric information of the scene to generate a single image at optimum contrast which makes it particularly effective to distinguish two distinct areas with slightly different polarization properties. The complete analytical solution of this problem is proposed in the next chapter with associated illustrations. The proposed model allows, in addition to a physical interpretation of the imaging problem, to quantify the limits of APSCI method based on evaluated Mueller matrices of the scene. Furthermore the relative performance of APSCI vs Classical Mueller Imaging (CMI) associated to polar decomposition has been studied numerically. Finally we have setup an hybrid CMI-APSCI imaging setup by indigenous calibration technique with a polarimetric precession of approximately 1% when room temperature varies around 1 degree C.
32

La fibre en support du Mobile Cloud / The Mobile Cloud supported by optical fiber

Diallo, Thierno 12 December 2016 (has links)
De nos jours, la montée en débit observée dans les réseaux mobiles est une problématique. A long terme, la densification des réseaux radios mobiles s'avérera inefficace. En plus de cela cette densification entraînera une baisse de rentabilité des réseaux d'accès mobiles et augmentera la complexité au niveau de la gestion des fréquences mobile qui accroîtra inéluctablement le risque de la présence des interférences. Pour pallier ce manque de rentabilité et pour faciliter le déploiement de certaines techniques d'optimisation et d'amélioration de l'interface air comme le « Coordinated MultiPoint » (CoMP), les acteurs des télécommunications proposent une nouvelle architecture innovante désignée par les termes Mobile Cloud ou « Centralized or Cloud Radio Access Network » (C-RAN). Le C-RAN consiste à déporter l'entité de traitement des données numérisées appelée « Base Band Unit » (BBU) du site d'antenne vers un local plus sécurisé nommé « Central Oce (CO) ». L'entité de traitement radio dénommée « Remote Radio Head (RRH) »est toujours localisée sur le site d'antenne. Cette délocalisation crée un nouveau segment réseau appelé « fronthaul ». Le fronthaul est un segment réseau très gourmand en bande passante par conséquent la fibre est désignée comme le support idéal pour assurer la communication bidirectionnelle entre la RRH et la BBU. Dans notre thèse, nous avons étudié les solutions de déploiement du fronthaul. Etant donné que l'interface fronthaul utilise de grands débits pour la transmission de données numérisées, elle est soumise à un phénomène physique nommé gigue qui a tendance à dégrader les performances de transmission. Les effets et l'impact de la gigue sur l'interface fronthaul et sur l'interface air ont été aussi étudiés. / In Europe, the competition between the mobile operators is so strong that the profitability of the mobile network has decreased. The cost to implement, to operate and to upgrade the mobile network is increasing while the revenues generated by the latter are not sufficient. Therefore, the operators should find the way to reduce the CAPEX and the OPEX. To keep competitive, the operators have begun to think about a novel RAN architecture. This new architecture is called Centralized or Cloud Radio Access Network. The traditional antenna site consists of the Radio Remote Head (RRH) which performs the radio processing, and the Base Band Unit (BBU) which carries out the digital processing. The principle of C-RAN consists to move the BBU from antenna site towards the local secured belonging to an operator called Central Office (CO). The move of BBU from antenna site to CO leads to the appearance of a new network segment called fronthaul. During this thesis, the different solutions to the deployment of fronthaul are studied and also the effects and the impacts of jitter on the fronthaul interface.
33

Sequential Monte-Carlo sampler for Bayesian inference in complex systems / Echantillonneur séquentiel de Monte-Carlo pour l’inférence Bayésienne dans des systèmes complexes

Nguyen, Thi Le Thu 03 July 2014 (has links)
Dans de nombreux problèmes, des modèles complexes non-Gaussiens et/ou non-linéaires sont nécessaires pour décrire précisément le système physique étudié. Dans ce contexte, les algorithmes de Monte-Carlo sont des outils flexibles et puissants permettant de résoudre de tels problèmes d’inférence. Toutefois, en présence de loi a posteriori multimodale et/ou de grande dimension, les méthodes classiques de Monte-Carlo peuvent conduire à des résultats non satisfaisants. Dans cette thèse, nous étudions une approche plus robuste et efficace: échantillonneur séquentiel de Monte-Carlo. Bien que cette approche présente de nombreux avantages par rapport aux méthodes traditionnelles de Monte-Carlo, le potentiel de cette technique est cependant très largement sous-exploité en traitement du signal. L’objectif de cette thèse est donc de proposer de nouvelles stratégies permettant d’améliorer l’efficacité de cet algorithme et ensuite de faciliter sa mise en œuvre pratique. Pour ce faire, nous proposons une approche adaptive qui sélectionne la séquence de distributions minimisant la variance asymptotique de l'estimateur de la constante de normalisation de la loi a posteriori. Deuxièmement, nous proposons un mécanisme de correction qui permet d’améliorer l’efficacité globale de la méthode en utilisant toutes les particules générées à travers toutes les itérations de l’algorithme (au lieu d’uniquement celles de la dernière itération). Enfin pour illustrer l’utilité de cette approche ainsi que des stratégies proposées, nous utilisons cet algorithme dans deux problèmes complexes: la localisation de sources multiples dans les réseaux de capteurs et la régression Bayésienne pénalisée. / In many problems, complex non-Gaussian and/or nonlinear models are required to accurately describe a physical system of interest. In such cases, Monte Carlo algorithms are remarkably flexible and extremely powerful to solve such inference problems. However, in the presence of high-dimensional and/or multimodal posterior distribution, standard Monte-Carlo techniques could lead to poor performance. In this thesis, the study is focused on Sequential Monte-Carlo Sampler, a more robust and efficient Monte Carlo algorithm. Although this approach presents many advantages over traditional Monte-Carlo methods, the potential of this emergent technique is however largely underexploited in signal processing. In this thesis, we therefore focus our study on this technique by aiming at proposing some novel strategies that will improve the efficiency and facilitate practical implementation of the SMC sampler. Firstly, we propose an automatic and adaptive strategy that selects the sequence of distributions within the SMC sampler that approximately minimizes the asymptotic variance of the estimator of the posterior normalization constant. Secondly, we present an original contribution in order to improve the global efficiency of the SMC sampler by introducing some correction mechanisms that allow the use of the particles generated through all the iterations of the algorithm (instead of only particles from the last iteration). Finally, to illustrate the usefulness of such approaches, we apply the SMC sampler integrating our proposed improvement strategies to two challenging practical problems: Multiple source localization in wireless sensor networks and Bayesian penalized regression.
34

Analyse automatisée du signal électrocardiographique dans les arythmies atriales chez le rat vigil / Automated analysis of the electrocardiographic signal on atrial arrhythmias in conscious rats

Gallet, Clément 12 November 2013 (has links)
La fibrillation atriale est la plus fréquente des arythmies cardiaques et sa physiopathologie reste mal comprise. Il n’existe pas actuellement de modèle animal dans lequel cette arythmie survienne de manière spontanée. Comme l’âge et l’hypertension artérielle sont deux facteurs de risque majeurs dela fibrillation atriale chez l’Homme, nous avons recherché si le rat spontanément hypertendu (SHR)vieillissant (11-13 mois d’âge) développe cette pathologie. Des enregistrements télémétriques de 24 h de l’électrocardiogramme (ECG) ont été réalisés dans 4 groupes de rats vigils. Ils ont révélé chez le rat SHR vieillissant la présence de nombreux épisodes de tachyarythmie atriale non soutenus, épisodes qui ne sont pas observés chez le rat SHR jeune ni chez lerat normotendu Wistar Kyoto jeune ou vieillissant. Les résultats rapportés ci-dessus ont été obtenus grâce à l’analyse visuelle de l’intégralité de chaque enregistrement ECG, ce qui représente une durée d’analyse incompatible avec des expérimentations de routine. Nous avons donc choisi de développer une méthode automatique de reconnaissance des arythmies atriales chez le rat vigil. Cette méthode utilise exclusivement les intervalles RR car les ondes P ne peuvent pas toujours être identifiées avec fiabilité dans les enregistrements télémétriques de l’ECG. Elle repère les motifs caractéristiques de tachyarythmie grâce à une structure d’automate, et présente une bonne performance sur les enregistrements télémétriques déjà réalisés. Le nouveau modèle animal, conjointement à la nouvelle méthode automatique d’analyse de l’ECG, devrait permettre de réaliser les analyses phénotypiques de qualité indispensables aux hypothèses physiopathologiques moléculaires actuellement avancées dans la fibrillation atriale. / Atrial fibrillation is the most common cardiac arrhythmia and its pathophysiology is still poorly understood. To date, there is no animal model in which the arrhythmia occurs spontaneously. As ageand hypertension are major risk factors of atrial fibrillation in humans, we examined whether the aging (11-13 months of age) spontaneously hypertensive rat (SHR) develops this pathology. Telemetric recordings of electrocardiogram (ECG) were obtained in four groups of conscious rats. They revealed the presence in the aging SHR of many non-sustained atrial tachyarrhythmic episodes that were observed neither in the young SHR nor in the young or aging normotensive Wistar Kyotorat. These results were obtained by visual examination of the whole ECG recordings, which is extremely time consuming and thus, not compatible with routine experiments. Therefore, we chose to develop an automated method to detect atrial arrhythmias in the conscious rat. This method only uses RR intervalsbecause P waves cannot always be accurately identified in telemetric recordings. It recognizes characteristicpatterns of tachyarrhythmia by using an automaton structure, and shows a good performance when applied to previously collected telemetric data. The new animal model, together with the new, automated method of ECG analysis, are expected to be extremely useful for producing high quality phenotypic data, which are necessary to test present molecular hypotheses of atrial fibrillation pathophysiology.
35

Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables / Contribution to the definition, optimization and implementation of signal processing IPs on programmable target

Ouerhani, Yousri 16 November 2012 (has links)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s’affranchir de l’avènement des circuits numériques. C’est dans ce cadre que s’inscrivent les travaux de cette thèse dont l’objectif est de proposer une implantation numérique des méthodes optiques de traitement d’images. Pour réaliser cette implantation nous avons choisi d’utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP « Intellectual Properties ». Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l’IP FFT proposée 3 fois meilleure que celle de l’IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde. / The main objective of this thesis is to realize a numerical implementation of optical methods of image and signal processing. To achieve this end, we opted to use FPGA (Field Programmable Gate Array) and GPU (Graphical Processing Unit) devices. This choice is justified by their high performance in terms of speed. In addition, to improve productivity, we focused on the reuse of predesigned blocks or "Intellectual Properties" IP. While existing commercial IP are optimized, they are often paid and highly dependent on the card. The first contribution is to provide an optimized IP for Fourier transform (FFT) and the cosine transform (DCT) computing. Indeed, the choice of these two transformations is justified by the widespread use of these two transforms (FFT and DCT), particularly in pattern recognition and compression algorithms. The second contribution is to validate the operation of the proposed IP using a bench test. The last contribution is to implement on FPGA and GPU applications for pattern recognition and compression. One of the convincing results obtained in this thesis is to propose an IP for FFT computing three times faster than Xilinx IP and thus to achieve 4700 correlations per second.
36

Analyse d'images pour une recherche d'images basée contenu dans le domaine transformé. / Image analysis for content based image retrieval in transform domain

Bai, Cong 21 February 2013 (has links)
Cette thèse s’inscrit dans la recherche d’images basée sur leur contenu. La recherche opère sur des images eprésentéesdans un domaine transformé et où sont construits directement les vecteurs de caractéristiques ou indices. Deux types detransformations sont explorés : la transformée en cosinus discrète ou Discrete Cosine Transform (DCT) et la transforméen ondelettes discrète ou Discrete Wavelet Transform (DWT), utilisés dans les normes de compression JPEG et JPEG2000. Basés sur les propriétés des coefficients de la transformation, différents vecteurs de caractéristiquessont proposés. Ces vecteurs sont mis en oeuvre dans la reconnaissance de visages et de textures couleur.Dans le domaine DCT, sont proposés quatre types de vecteurs de caractéristiques dénommés «patterns» : Zigzag-Pattern,Sum-Pattern, Texture-Pattern et Color-Pattern. Le premier type est l’amélioration d’une approche existante. Les trois derniers intègrent la capacité de compactage des coefficients DCT, sachant que certains coefficients représentent une information de directionnalité. L’histogramme de ces vecteurs est retenu comme descripteur de l’image. Pour une réduction de la dimension du descripteur lors de la construction de l’histogramme il est défini, soit une adjacence sur des patterns proches puis leur fusion, soit une sélection des patterns les plus fréquents. Ces approches sont évaluées sur des bases de données d’images de visages ou de textures couramment utilisées. Dans le domaine DWT, deux types d’approches sont proposés. Dans le premier, un vecteur-couleur et un vecteur–texture multirésolution sont élaborés. Cette approche se classe dans le cadre d’une caractérisation séparée de la couleur et de la texture. La seconde approche se situe dans le contexte d’une caractérisation conjointe de la couleur et de la texture. Comme précédemment, l’histogramme des vecteurs est choisi comme descripteur en utilisant l’algorithme K-means pour construire l’histogramme à partir de deux méthodes. La première est le procédé classique de regroupement des vecteurs par partition. La seconde est un histogramme basé sur une représentation parcimonieuse dans laquelle la valeur des bins représente le poids total des vecteurs de base de la représentation. / This thesis comes within content-based image retrieval for images by constructing feature vectors directly fromtransform domain. In particular, two kinds of transforms are concerned: Discrete Cosine Transform (DCT) andDiscrete Wavelet Transform (DWT), which are used in JPEG and JPEG2000 compression standards. Based onthe properties of transform coefficients, various feature vectors in DCT domain and DWT domain are proposedand applied in face recognition and color texture retrieval. The thesis proposes four kinds of feature vectors in DCTdomain: Zigzag-Pattern, Sum-Pattern, Texture-Pattern and Color-Pattern. The first one is an improved method based onan existing approach. The last three ones are based on the capability of DCT coefficients for compacting energy and thefact that some coefficients hold the directional information of images. The histogram of these patterns is chosen as descriptor of images. While constructing the histogram, with the objective to reduce the dimension of the descriptor, either adjacent patterns are defined and merged or a selection of the more frequent patterns is done. These approaches are evaluated on widely used face databases and texture databases. In the aspect of DWT domain, two kinds of approaches for color texture retrieval are proposed. In the first one, color-vector and multiresolution texture-vector are constructed, which categorize this approach into the context of extracting color and texture features separately. In contrast, the second approachis in the context of extracting color and texture features jointly: multiresolution feature vectors are extracted from luminance and chrominance components of color texture. Histogram of vectors is again chosen as descriptor and using k-means algorithm to divide feature vectors into partitions corresponding to the bins of histogram. For histogram generation, two methods are used. The first one is the classical method, in which the number of vectors that fall into the corresponding partition is counted. The second one is the proposition of a sparse representation based histogram in which a bin value represents the total weight of corresponding basis vector in the sparse representation.
37

Détection et classification de décors gravés sur des céramiques anciennes par analyse d’images / Extraction and classification of engraved ceramic sherds by image analysis

Debroutelle, Teddy 19 February 2018 (has links)
Le projet ARCADIA vise à développer une méthode automatique d’analyse des décors sur des tessons de céramique réalisés à la molette pour faciliter l’interprétation de ce patrimoine archéologique. Cette automatisation doit remplacer la procédure manuelle effectuée par l’archéologue, devenue trop fastidieuse avec l’augmentation du corpus (38000 tessons). L’objectif in fine est de réussir à associer automatiquement les décors à la molette du potier qui les a créés. Dans ce contexte, nous avons développé une chaine complète depuis la numérisation des tessons jusqu’à la classification automatique des décors selon leur style de motifs(carré, losange, chevrons, oves, etc). Les travaux présentés proposent plusieurs contributions mettant en oeuvre des méthodes d’analyse d’images et d’apprentissage automatique. A partir du nuage de points 3D, une carte des profondeurs est obtenue. Une méthode originale de détection automatique de la région saillante focalisée sur le décor est proposée. Ensuite les décors sont caractérisés pour effectuer leur classification. Un nouveau descripteur, appelé Blob-SIFT, est proposé pour collecter les signatures seulement dans les zones pertinentes du décor. Cette approche adaptée à chaque décor, permet à la fois de réduire considérablement la masse de données et d’améliorer les performances de classification. Nous proposons également une approche apprentissage profond, puis, une approche hybride combinant les vecteurs de caractéristiques locales extraites par Blob-SIFT et la caractérisation globale du décor fournie par l’apprentissage profond qui améliore encore les performances de classification. / The ARCADIA project aims to develop an automatic method for analyzing engraved decorations on ceramic sherds to facilitate the interpretation of this archaeological heritage. It is to replace the manual and tedious procedure carried out by the archaeologist since the corpus increased to more 38000 sherds. The ultimate goal is to grouping all the decorations created with the same wheel by a poter. We developped a complete chain from the 3Dscanning of the sherd to the automatic classification of the decorations according to their style (diamonds, square, chevrons, oves, etc). In this context, several contributions are proposed implementing methods of image analysis and machine learning. From the 3Dpoint cloud, a depth map is extracted and an original method is applied to automatically detect the salient region centered onto the decoration. Then, a new descriptor, called Blob-SIFT, is proposed to collect signatures only in the relevant areas and characterize the decoration to perform the classification. This approach adapted to each sherd, allows both to reduce significantly the mass of data and improve classification rates. We also use deep learning, and propose an hybrid approach combining local features extracted by Blob-SIFT with global features provided by deep learning to increase the classification performance.
38

Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle / Methods for multidimensional modal retrieval. Application to multidimensional NMR spectroscopy

Sahnoun, Souleymen 27 November 2012 (has links)
La thèse porte sur le développement d'algorithmes d'estimation rapides pour l'analyse modale de signaux multidimensionnels (R-D) présentant des problèmes de résolution et de complexité numérique. Un signal multidimensionnel de dimension R est la superposition de produits de R sinusoïdes. L'application visée est la spectroscopie RMN.Dans un premier temps, après un état de l'art des méthodes d'estimation dites « algébriques », nous proposons une méthode paramétrique basée sur les tenseurs. Celle-ci utilise le treillis multidimensionnel du tenseur du signal R-D et exploite la structure des vecteurs propres du sous-espace signal obtenus en utilisant la décomposition en valeurs singulières d'ordre supérieur. Contrairement à la plupart des approches tensorielles, la méthode proposée permet d'éviter la phase d'appariement des coordonnées des modes dans chacune des dimensions ou d'une diagonalisation conjointe. Dans un deuxième temps, le problème d'estimation modale multidimensionnelle est présenté comme un problème d'approximation parcimonieuse dans lequel le dictionnaire est obtenu par la discrétisation de fonctions exponentielles complexes. Afin d'atteindre une bonne résolution spectrale, il est nécessaire de choisir une grille très fine, ce qui conduit à la manipulation d'un dictionnaire de grande taille avec tous les problèmes calculatoires sous-jacents. Nous proposons alors une méthode originale qui consiste à combiner une approximation parcimonieuse et une approche multigrille sur plusieurs niveaux de résolution. L'approche est validée au travers de plusieurs exemples 1-D et 2-D. En outre, une étude sur l'influence du choix du dictionnaire initial sur la convergence est également menée. Les méthodes développées sont ensuite appliquées à l'estimation des paramètres de signaux de spectroscopie RMN 1-D et 2-D. Afin de réduire le coût de calcul dans le cas de signaux bidimensionnels de grande taille, nous proposons également une approche exploitant la notion de parcimonie simultanée, pour estimer les coordonnées des modes sur chacune des dimensions. La procédure consiste à effectuer deux approximations parcimonieuses 1-D suivies d'une phase de reformation des paires de modes 2-D / This thesis aims at the developpement of modal analysis algorithms for multidimensional signals (R-D) presenting resolution and numerical complexity problems. A multidimensional signal of dimension R is the superimposition of products of R monodimensional sinusoids. The intended application is NMR spectroscopy. Firstly, after a state-of-the-art on the so-called ''algebraic'' estimation methods, we propose a parametric method based on tensors. It uses the multidimensional tensor lattice of the R-D modal signal and exploits the eigenvectors structure of the signal subspace obtained using a higher-order singular value decomposition (HOSVD). Unlike most tensor-based eigenvalue approaches, modes estimated by the proposed method are automatically paired, thus it avoids a separate pairing step and joint diagonalization. Secondly, the multidimensional modal estimation problem is formulated as a sparse approximation problem in which the dictionary is obtained by the discretization of complex exponential functions. To achieve good spectral resolution, it is necessary to choose a very fine grid, which leads to handling a large dictionary with all the underlying computational problems. Hence, we propose a novel method that consists in combining a sparse approximation and a multigrid approach on several levels of resolution. The approach is demonstrated using several 1-D and 2-D examples. In addition, the influence of the initial dictionary on the algorithm convergence is also studied. The developed methods are then applied to estimate 1-D and 2-D NMR signal parameters. To reduce the computation cost in the case of large bidimensional signals, we also propose an approach exploiting the simultaneous sparsity principle to estimate the coordinates of the modes on each dimension. The procedure involves two 1-D sparse approximations followed by a 2-D modes painring step.
39

Estimation de sources corticales : du montage laplacian aux solutions parcimonieuses / Cortical source imaging : from the laplacian montage to sparse inverse solutions

Korats, Gundars 26 February 2016 (has links)
L’imagerie de source corticale joue un rôle important pour la compréhension fonctionnelle ou pathologique du cerveau. Elle permet d'estimer l'activation de certaines zones corticales en réponse à un stimulus cognitif donné et elle est également utile pour identifier la localisation des activités pathologiques, qui sont les premières étapes de l'étude des activations de réseaux neuronaux sous-jacents. Diverses méthodes d'investigation clinique peuvent être utilisées, des modalités d'imagerie (TEP, IRM) et magnéto-électroencéphalographie (EEG, SEEG, MEG). Nous souhaitions résoudre le problème à partir de données non invasives : les mesures de l'EEG de scalp, elle procure une résolution temporelle à la hauteur des processus étudiés Cependant, la localisation des sources activées à partir d'enregistrements EEG reste une tâche extrêmement difficile en raison de la faible résolution spatiale. Pour ces raisons, nous avons restreint les objectifs de cette thèse à la reconstruction de cartes d’activation des sources corticales de surface. Différentes approches ont été explorées. Les méthodes les plus simples d'imagerie corticales sont basées uniquement sur les caractéristiques géométriques de la tête. La charge de calcul est considérablement réduite et les modèles utilisés sont faciles à mettre en œuvre. Toutefois, ces approches ne fournissent pas d'informations précises sur les générateurs neuronaux et sur leurs propriétés spatiotemporelles. Pour surmonter ces limitations, des techniques plus sophistiquées peuvent être utilisées pour construire un modèle de propagation réaliste, et donc d'atteindre une meilleure reconstruction de sources. Cependant, le problème inverse est sévèrement mal posé, et les contraintes doivent être imposées pour réduire l'espace des solutions. En l'absence de modèle bioanatomique, les méthodes développées sont fondées sur des considérations géométriques de la tête ainsi que la propagation physiologique des sources. Les opérateurs matriciels de rang plein sont appliqués sur les données, de manière similaire à celle effectuée par les méthodes de surface laplacien, et sont basés sur l'hypothèse que les données de surface peuvent être expliquées par un mélange de fonctions de bases radiales linéaires produites par les sources sous-jacentes. Dans la deuxième partie de ces travaux, nous détendons la contrainte-de rang plein en adoptant un modèle de dipôles distribués sur la surface corticale. L'inversion est alors contrainte par une hypothèse de parcimonie, basée sur l'hypothèse physiologique que seuls quelques sources corticales sont simultanément actives ce qui est particulièrement valable dans le contexte des sources d'épilepsie ou dans le cas de tâches cognitives. Pour appliquer cette régularisation, nous considérons simultanément les deux domaines spatiaux et temporels. Nous proposons deux dictionnaires combinés d’atomes spatio-temporels, le premier basé sur une analyse en composantes principales des données, la seconde à l'aide d'une décomposition en ondelettes, plus robuste vis-à-vis du bruit et bien adaptée à la nature non-stationnaire de ces données électrophysiologiques. Toutes les méthodes proposées ont été testées sur des données simulées et comparées aux approches classiques de la littérature. Les performances obtenues sont satisfaisantes et montrent une bonne robustesse vis-à-vis du bruit. Nous avons également validé notre approche sur des données réelles telles que des pointes intercritiques de patients épileptiques expertisées par les neurologues de l'hôpital universitaire de Nancy affiliées au projet. Les localisations estimées sont validées par l'identification de la zone épileptogène obtenue par l'exploration intracérébrale à partir de mesures stéréo EEG. / Cortical Source Imaging plays an important role for understanding the functional and pathological brain mechanisms. It links the activation of certain cortical areas in response to a given cognitive stimulus, and allows one to study the co-activation of the underlying functional networks. Among the available acquisition modality, electroencephalographic measurements (EEG) have the great advantage of providing a time resolution of the order of the millisecond, at the scale of the dynamic of the studied process, while being a non-invasive technique often used in clinical routine. However the identification of the activated sources from EEG recordings remains an extremely difficult task because of the low spatial resolution this modality provides, of the strong filtering effect of the cranial bones and errors inherent to the used propagation model. In this work different approaches for the estimation of cortical activity from surface EEG have been explored. The simplest cortical imaging methods are based only on the geometrical characteristics of the head. The computational load is greatly reduced and the used models are easy to implement. However, such approaches do not provide accurate information about the neural generators and on their spatiotemporal properties. To overcome such limitations, more sophisticated techniques can be used to build a realistic propagation model, and thus to reach better source reconstruction by its inversion. However, such inversion problem is severely ill-posed, and constraints have to be imposed to reduce the solution space. We began by reconsidering the cortical source imaging problem by relying mostly on the observations provided by the EEG measurements, when no anatomical modeling is available. The developed methods are based on simple but universal considerations about the head geometry as well as the physiological propagation of the sources. Full-rank matrix operators are applied on the data, similarly as done by Surface Laplacian methods, and are based on the assumption that the surface can be explained by a mixture of linear radial basis functions produced by the underlying sources. In the second part of the thesis, we relax the full-rank constraint by adopting a distributed dipole model constellating the cortical surface. The inversion is constrained by an hypothesis of sparsity, based on the physiological assumption that only a few cortical sources are active simultaneously Such hypothesis is particularly valid in the context of epileptic sources or in the case of cognitive tasks. To apply this regularization, we consider simultaneously both spatial and temporal domains. We propose two combined dictionaries of spatio-temporal atoms, the first based on a principal components analysis of the data, the second using a wavelet decomposition, more robust to noise and well suited to the non-stationary nature of these electrophysiological data. All of the proposed methods have been tested on simulated data and compared to conventional approaches of the literature. The obtained performances are satisfactory and show good robustness to the addition of noise. We have also validated our approach on real epileptic data provided by neurologists of the University Hospital of Nancy affiliated to the project. The estimated locations are consistent with the epileptogenic zone identification obtained by intracerebral exploration based on Stereo-EEG measurements.
40

Μέθοδος επεξεργασίας σήματος για τρισδιάστατη ηχητική αναπαραγωγή

Πίππος, Γεώργιος 09 October 2014 (has links)
Στα πλαίσια της διπλωματικής αυτής, έγινε ανάλυση και υλοποίησης της κωδικοποίησης αμφοιωτικών παραμέτρων (BCC-Binaural Cue Coding). Οι αλγόριθμοι της κωδικοποίησης BCC και γενικά όλες οι συναρτήσεις που χρησιμοποιήθηκαν έγιναν στο περιβάλλον της MATLAB. Για τη διαδικασία και για τον έλεγχο των αλγορίθμων έγινε χρήση στερεοφωνικών σημάτων τα οποία κωδικοποιήθηκαν σε μονοφωνικά. Στόχος της κωδικοποίησης ήταν να επιτευχθεί γρήγορη μίξη και εξαγωγή των παραμέτρων του στερεοφωνικού σήματος και ταυτόχρονα όσο το δυνατό πιο πειστική επαναδημιουργία του σήματος. Για αυτό τον λόγο στην προσπάθεια δημιουργίας προγράμματος με γρήγορη απόκριση, η κωδικοποίηση έγινε, τόσο στο πεδίο του χρόνου όσο και στο πεδίο της συχνότητας. / --

Page generated in 0.0528 seconds