• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 4
  • 1
  • Tagged with
  • 27
  • 27
  • 12
  • 12
  • 11
  • 10
  • 9
  • 8
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Séparation de signaux en mélanges convolutifs : contributions à la séparation aveugle de sources parcimonieuses et à la soustraction adaptative des réflexions multiples en sismique / Signal separation in convolutive mixtures : contributions to blind separation of sparse sources and adaptive subtraction of seismic multiples

Batany, Yves-Marie 14 November 2016 (has links)
La séparation de signaux corrélés à partir de leurs combinaisons linéaires est une tâche difficile et possède plusieurs applications en traitement du signal. Nous étudions deux problèmes, à savoir la séparation aveugle de sources parcimonieuses et le filtrage adaptatif des réflexions multiples en acquisition sismique. Un intérêt particulier est porté sur les mélanges convolutifs : pour ces deux problèmes, des filtres à réponses impulsionnelles finies peuvent être estimés afin de récupérer les signaux désirés.Pour les modèles de mélange instantanés et convolutifs, nous donnons les conditions nécessaires et suffisantes pour l'extraction et la séparation exactes de sources parcimonieuses en utilisant la pseudo-norme L0 comme une fonction de contraste. Des équivalences entre l'analyse en composantes parcimonieuses et l'analyse en composantes disjointes sont examinées.Pour la soustraction adaptative des réflexions sismiques, nous discutons les limites des méthodes basées sur l'analyse en composantes indépendantes et nous soulignons l'équivalence avec les méthodes basées sur les normes Lp. Nous examinons de quelle manière les paramètres de régularisation peuvent être plus décisifs pour l'estimation des primaires. Enfin, nous proposons une amélioration de la robustesse de la soustraction adaptative en estimant les filtres adaptatifs directement dans le domaine des curvelets. Les coûts en calcul et en mémoire peuvent être atténués par l'utilisation de la transformée en curvelet discrète et uniforme. / The recovery of correlated signals from their linear combinations is a challenging task and has many applications in signal processing. We focus on two problems that are the blind separation of sparse sources and the adaptive subtraction of multiple events in seismic processing. A special focus is put on convolutive mixtures: for both problems, finite impulse response filters can indeed be estimated for the recovery of the desired signals.For instantaneous and convolutive mixing models, we address the necessary and sufficient conditions for the exact extraction and separation of sparse sources by using the L0 pseudo-norm as a contrast function. Equivalences between sparse component analysis and disjoint component analysis are investigated.For adaptive multiple subtraction, we discuss the limits of methods based on independent component analysis and we highlight equivalence with Lp-norm-based methods. We investigate how other regularization parameters may have more influence on the estimation of the desired primaries. Finally, we propose to improve the robustness of adaptive subtraction by estimating the extracting convolutive filters directly in the curvelet domain. Computation and memory costs are limited by using the uniform discrete curvelet transform.
22

Conception d'une architecture embarquée adaptable pour le déploiement d'applications d'interface cerveau machine / Design of an adaptable embedded architecture for the deployment of brain-machine interface applications

Belwafi, Kais 28 September 2017 (has links)
L'objectif de ces travaux de recherche est l'étude et le développement d'un système ICM embarqué en utilisant la méthodologie de conception conjointe afin de satisfaire ses contraintes spécifiques. Il en a découlé la constitution d'un système ICM complet intégrant un système d'acquisition OpenBCI et un système de traitement à base de FPGA. Ce système pourrait être utilisé dans des contextes variés : médicale (pour les diagnostiques précoces des pathologies), technologique (informatique ubiquitaire), industriel (communication avec des robots), ludique (contrôler un joystick dans les jeux vidéo), etc. Dans notre contexte d’étude, la plateforme ICM proposée a été réalisée pour assister les personnes à mobilité réduite à commander les équipements domestiques. Nous nous sommes intéressés en particulier à l'étude et à l'implémentation des modules de filtrage adaptatif et dynamique, sous forme d'un coprocesseur codé en HDL afin de réduire son temps d'exécution car c'est le bloc le plus critique de la chaine ICM. Quant aux algorithmes d'extraction des caractéristiques et de classification, ils sont exécutés par le processeur Nios-II sous son système d'exploitation en ANSI-C. Le temps de traitement d'un trial par notre système ICM réalisé est de l'ordre de 0.4 s/trial et sa consommation ne dépasse guère 0.7 W. / The main purpose of this thesis is to study and develop an embedded brain computer interface (BCI) system using HW/SW methodology in order to satisfy the system specifications. A complete BCI system integrated in an acquisition system (OpenBCI) and a hardware platform based on the FPGA were achieved. The proposed system can be used in a variety of contexts: medical (for early diagnosis of pathologies, assisting people with severe disabilities to control home devices system through thought), technological (ubiquitous computing), industrial (communication with Robots), games (control a joystick in video games), etc. In our study, the proposed ICM platform was designed to control home devices through the thought of people with severe disabilities. A particular attention has been given to the study and implementation of the filtering module, adaptive and dynamic filtering, in the form of a coprocessor coded in HDL in order to reduce its execution time as it is the critical block in the returned ICM algorithms. For the feature extraction and classification algorithms, they are executed in the Nios-II processor using ANSI-C language. The prototype operates at 200 MHz and performs a real time classification with an execution delay of 0.4 second per trial. The power consumption of the proposed system is about 0.7 W.
23

Application de la transformée en nombres entiers à la conception d'algorithmes de faible complexité pour l'annulation d'échos acoustiques

Alaeddine, Hamzé 12 July 2007 (has links) (PDF)
Le principal objectif de notre étude est d'évaluer la possibilité d'un développement en temps réel d'un système d'annulation d'écho acoustique. Pour réduire le coût de calcul de ce système, nous avons approfondi les bases mathématiques de la transformée en nombres entiers (NTT : Number Theoretic Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Nous avons introduit plus particulièrement la transformée en nombres de Fermat (FNT : Fermat Number Transform) qui permet une réduction, par rapport à la FFT (Fast Fourier Transform), des nombres de multiplications nécessaires à la réalisation de certaines fonctions telles que les produits de convolution. Pour mettre en évidence cette transformée, nous avons proposé et étudié de nouveaux algorithmes d'annulation d'écho de faible complexité que nous avons traités par blocs et rendus robustes avant de les implanter au moyen de la FNT. Le résultat de cette implantation, comparée à une implantation par la FFT, a montré une forte réduction du nombre de multiplications accompagnée d'une augmentation du nombre d'opérations classiques. Pour réduire cette augmentation, nous avons proposé une nouvelle technique de la transformée, intitulée Generalized Sliding FNT (GSFNT). Celle-ci consiste à calculer la FNT d'une succession de séquences qui diffèrent d'un certain nombre d'échantillons l'une de l'autre. Le résultat des simulations des performances de ces algorithmes d'annulation d'écho, traités au moyen de cette technique, a montré que celle-ci permet de pallier à l'augmentation du nombre d'opérations classiques observée lors d'une implantation en FNT. Enfin, l'implantation des algorithmes d'annulation d'écho en FNT et par une nouvelle procédure de l'algorithme MDF (Multi-Delay Filter ) associée à la nouvelle méthode de calcul du pas d'adaptation, a permis une réduction significative de la complexité de calcul.
24

Indentification de système sous la contrainte de non-négativité - Applications dans filtrage adaptatif et analyse dimage hyperspectrale

Chen, Jie 28 January 2013 (has links) (PDF)
Dans de nombreux phénomènes de la vie réelle en raison des caractéristiques physiques inhérentes des systèmes, la non-négativité est une contrainte désirée et éventuellement imposée sur les paramètres à estimer. L'objectif de cette thèse est d'étudier les théories et algorithmes pour l'identification de système sous contraintes, en particulier la contrainte de non-négativité et celle de somme-à-un sur le vecteur de paramètres. La première partie de la thèse traite le problème de système d'identification en-ligne soumis la non-négativité. L'algorithme Non-negative Least-Mean-Square (NNLMS) et ses variantes sont proposés. Les comportements stochastiques de ces algorithmes dans des environnements non-stationnaires sont étudiés analytiquement. Enfin, l'extension de ces algorithmes nous permet de dériver un algorithme de type LMS avec la régularisation de norme L1 La deuxième partie de la thèse porte sur un problème d'identification système spécifique - démélange non-linéaire de spectres, avec la contrainte de non-négativité et celle de somme-à-un. Nous formulons un nouveau paradigme avec noyaux sous l'hypothèse que le mélange peut être décrite par un mélange linéaire de composantes spectrales, avec des fluctuations additives non-linéaires définies dans un espace de Hilbert à noyau reproduisant. Un algorithme basé sur l'apprentissage des noyaux, est proposé afin de déterminer les abondances de matériels purs sous les contraintes. Enfin, la corrélation spatiale entre pixels est utilisée comme information a priori pour améliorer la performance.
25

Détection, localisation et quantification de déplacements par capteurs à fibre optique / Detection, localization and quantification of displacements thanks to optical fiber sensors

Buchoud, Edouard 13 October 2014 (has links)
Pour l’auscultation d’ouvrages, les capteurs à fibre optique sont généralement utilisés puisqu’ils présentent l’avantage de fournir des mesures réparties. Plus particulièrement, le capteur basé sur la technologie Brillouin permet d’acquérir un profil de fréquence Brillouin, sensible à la température et la déformation dans une fibre optique sur une dizaine de kilomètres avec un pas de l’ordre de la dizaine de centimètres. La première problématique est d’obtenir un profil centimétrique sur la même longueur d’auscultation. Nous y répondons en s’appuyant sur des méthodes de séparation de sources, de déconvolution et de résolution de problèmes inverses. Ensuite, nous souhaitons estimer la déformation athermique dans l’ouvrage. Pour cela, plusieurs algorithmes de filtrage adaptatif sont comparés. Finalement, un procédé pour quantifier le déplacement de l’ouvrage à partir des mesures de déformation est proposé. Toutes ces méthodes sont testés sur des données simulées et réelles acquises dans des conditions contrôlées. / For structural health monitoring, optical fiber sensors are mostly used thanks their capacity to provide distributed measurements. Based on the principle of Brillouin scattering, optical fiber sensors measure Brillouin frequency profile, sensitive to strain and temperature into the optical fiber, with a meter spatial resolution over several kilometers. The first problem is to obtain a centimeter spatial resolution with the same sensing length. To solve it, source separation, deconvolution and resolution of inverse problem methodologies are used. Then, the athermal strain into the structure is searched. Several algorithms based on adaptative filter are tested to correct the thermal effect on strain measurements. Finally, several methods are developed to quantify structure displacements from the athermal strain measurements. They have been tested on simulated and controlled-conditions data
26

Compensation des mouvements physiologiques en chirurgie robotisée par commande prédictive

Ginhoux, Romuald 18 December 2003 (has links) (PDF)
Il existe aujourd'hui de nombreux systèmes robotiques commerciaux pour l'assistance au geste chirurgical. Les interventions d'orthopédie, de neurologie, de chirurgie laparoscopique ou cardiaque peuvent désormais être assistées par des systèmes mécaniques et informatiques. Depuis les premiers robots d'aide au geste chirurgical dérivés des robots industriels, aux robots actuels, l'objectif est de développer des systèmes d'aide aux gestes médicaux et chirurgicaux qui apportent des bénéfices importants au chirurgien et au patient. Dans ce contexte, ce travail de thèse s'intéresse plus particulièrement à l'aide au geste chirurgical en chirurgie mini-invasive robotisée. La problématique abordée est de permettre à un robot chirurgical de compenser mécaniquement les mouvements physiologiques de l'organe ou du tissu opéré, afin de proposer au chirurgien une zone de travail virtuellement immobile. En effet, ces mouvements sont des perturbations pour le chirurgien qui télé-manipule un robot, car il doit les compenser lui-même à chaque fois qu'une tâche précise est requise à la surface d'un organe ou d'un tissu, en les accompagnant manuellement quand c'est possible. Ceci limite aujourd'hui le développement, entre autres, des opérations à coeur battant. L'objectif est de proposer un système de commande qui permette au robot de se déplacer de façon synchronisée avec l'organe et d'accompagner ainsi son mouvement. Ce travail se restreint aux mouvements physiologiques dus à la respiration et aux battements du coeur. Ceux-ci sont périodiques avec une période qui ne varie pas pendant l'intervention. Le principe utilisé pour commander le déplacement du robot est celui de l'asservissement visuel direct rapide, où les images d'une caméra d'observation endoscopique sont traitées en temps réel, avec une cadence d'asservissement jusqu'à 500 images par seconde. Le robot est commandé à l'aide de lois de commande prédictives dans lesquelles des modèles internes simples du robot et des mouvements à filtrer sont inclus. Les développements présentés dans cette thèse sont illustrés par deux ensembles de résultats, pour la compensation des mouvements respiratoires du foie d'une part, et le suivi du coeur battant d'autre part. Des dispositifs expérimentaux ont été mis en place autour d'un robot médical Aesop (Computer Motion, USA) et un prototype de robot chirurgical de la société Sinters de Toulouse. Des expériences de laboratoire et des tests in vivo en conditions chirurgicales réelles ont été réalisés.
27

Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processing

Xu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.

Page generated in 0.3392 seconds