• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 212
  • 190
  • Tagged with
  • 771
  • 771
  • 520
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
751

Évaluation de modèles computationnels de la vision humaine en imagerie par résonance magnétique fonctionnelle / Evaluating Computational Models of Vision with Functional Magnetic Resonance Imaging

Eickenberg, Michael 21 September 2015 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) permet de mesurer l'activité cérébrale à travers le flux sanguin apporté aux neurones. Dans cette thèse nous évaluons la capacité de modèles biologiquement plausibles et issus de la vision par ordinateur à représenter le contenu d'une image de façon similaire au cerveau. Les principaux modèles de vision évalués sont les réseaux convolutionnels.Les réseaux de neurones profonds ont connu un progrès bouleversant pendant les dernières années dans divers domaines. Des travaux antérieurs ont identifié des similarités entre le traitement de l'information visuelle à la première et dernière couche entre un réseau de neurones et le cerveau. Nous avons généralisé ces similarités en identifiant des régions cérébrales correspondante à chaque étape du réseau de neurones. Le résultat consiste en une progression des niveaux de complexité représentés dans le cerveau qui correspondent à l'architecture connue des aires visuelles: Plus la couche convolutionnelle est profonde, plus abstraits sont ses calculs et plus haut niveau sera la fonction cérébrale qu'elle sait modéliser au mieux. Entre la détection de contours en V1 et la spécificité à l'objet en cortex inférotemporal, fonctions assez bien comprises, nous montrons pour la première fois que les réseaux de neurones convolutionnels de détection d'objet fournissent un outil pour l'étude de toutes les étapes intermédiaires du traitement visuel effectué par le cerveau.Un résultat préliminaire à celui-ci est aussi inclus dans le manuscrit: L'étude de la réponse cérébrale aux textures visuelles et sa modélisation avec les réseaux convolutionnels de scattering.L'autre aspect global de cette thèse sont modèles de “décodage”: Dans la partie précédente, nous prédisions l'activité cérébrale à partir d'un stimulus (modèles dits d’”encodage”). La prédiction du stimulus à partir de l'activité cérébrale est le méchanisme d'inférence inverse et peut servir comme preuve que cette information est présente dans le signal. Le plus souvent, des modèles linéaires généralisés tels que la régression linéaire ou logistique ou les SVM sont utilisés, donnant ainsi accès à une interprétation des coefficients du modèle en tant que carte cérébrale. Leur interprétation visuelle est cependant difficile car le problème linéaire sous-jacent est soit mal posé et mal conditionné ou bien non adéquatement régularisé, résultant en des cartes non-informatives. En supposant une organisation contigüe en espace et parcimonieuse, nous nous appuyons sur la pénalité convexe d'une somme de variation totale et la norme L1 (TV+L1) pour développer une pénalité regroupant un terme d'activation et un terme de dérivée spatiale. Cette pénalité a la propriété de mettre à zéro la plupart des coefficients tout en permettant une variation libre des coefficients dans une zone d'activation, contrairement à TV+L1 qui impose des zones d’activation plates. Cette méthode améliore l'interprétabilité des cartes obtenues dans un schéma de validation croisée basé sur la précision du modèle prédictif.Dans le contexte des modèles d’encodage et décodage nous tâchons à améliorer les prétraitements des données. Nous étudions le comportement du signal IRMf par rapport à la stimulation ponctuelle : la réponse impulsionnelle hémodynamique. Pour générer des cartes d'activation, au lieu d’un modèle linéaire classique qui impose une réponse impulsionnelle canonique fixe, nous utilisons un modèle bilinéaire à réponse hémodynamique variable spatialement mais fixe à travers les événements de stimulation. Nous proposons un algorithme efficace pour l'estimation et montrons un gain en capacité prédictive sur les analyses menées, en encodage et décodage. / Blood-oxygen-level dependent (BOLD) functional magnetic resonance imaging (fMRI) makes it possible to measure brain activity through blood flow to areas with metabolically active neurons. In this thesis we use these measurements to evaluate the capacity of biologically inspired models of vision coming from computer vision to represent image content in a similar way as the human brain. The main vision models used are convolutional networks.Deep neural networks have made unprecedented progress in many fields in recent years. Even strongholds of biological systems such as scene analysis and object detection have been addressed with enormous success. A body of prior work has been able to establish firm links between the first and last layers of deep convolutional nets and brain regions: The first layer and V1 essentially perform edge detection and the last layer as well as inferotemporal cortex permit a linear read-out of object category. In this work we have generalized this correspondence to all intermediate layers of a convolutional net. We found that each layer of a convnet maps to a stage of processing along the ventral stream, following the hierarchy of biological processing: Along the ventral stream we observe a stage-by-stage increase in complexity. Between edge detection and object detection, for the first time we are given a toolbox to study the intermediate processing steps.A preliminary result to this was obtained by studying the response of the visual areas to presentation of visual textures and analysing it using convolutional scattering networks.The other global aspect of this thesis is “decoding” models: In the preceding part, we predicted brain activity from the stimulus presented (this is called “encoding”). Predicting a stimulus from brain activity is the inverse inference mechanism and can be used as an omnibus test for presence of this information in brain signal. Most often generalized linear models such as linear or logistic regression or SVMs are used for this task, giving access to a coefficient vector the same size as a brain sample, which can thus be visualized as a brain map. However, interpretation of these maps is difficult, because the underlying linear system is either ill-defined and ill-conditioned or non-adequately regularized, resulting in non-informative maps. Supposing a sparse and spatially contiguous organization of coefficient maps, we build on the convex penalty consisting of the sum of total variation (TV) seminorm and L1 norm (“TV+L1”) to develop a penalty grouping an activation term with a spatial derivative. This penalty sets most coefficients to zero but permits free smooth variations in active zones, as opposed to TV+L1 which creates flat active zones. This method improves interpretability of brain maps obtained through cross-validation to determine the best hyperparameter.In the context of encoding and decoding models, we also work on improving data preprocessing in order to obtain the best performance. We study the impulse response of the BOLD signal: the hemodynamic response function. To generate activation maps, instead of using a classical linear model with fixed canonical response function, we use a bilinear model with spatially variable hemodynamic response (but fixed across events). We propose an efficient optimization algorithm and show a gain in predictive capacity for encoding and decoding models on different datasets.
752

Structured anisotropic sparsity priors for non-parametric function estimation / Parcimonie structurée anisotrope pour l'estimation non paramétrique

Farouj, Younes 17 November 2016 (has links)
Le problème d'estimer une fonction de plusieurs variables à partir d'une observation corrompue surgit dans de nombreux domaines d'ingénierie. Par exemple, en imagerie médicale cette tâche a attiré une attention particulière et a, même, motivé l'introduction de nouveaux concepts qui ont trouvé des applications dans de nombreux autres domaines. Cet intérêt est principalement du au fait que l'analyse des données médicales est souvent effectuée dans des conditions difficiles car on doit faire face au bruit, au faible contraste et aux transformations indésirables inhérents aux systèmes d'acquisition. D'autre part , le concept de parcimonie a eu un fort impact sur la reconstruction et la restauration d'images au cours des deux dernières décennies. La parcimonie stipule que certains signaux et images ont des représentations impliquant seulement quelques coefficients non nuls. Cela est avéré être vérifiable dans de nombreux problèmes pratiques. La thèse introduit de nouvelles constructions d'a priori de parcimonie dans le cas des ondelettes et de la variation totale. Ces constructions utilisent une notion d'anisotopie généralisée qui permet de regrouper des variables ayant des comportements similaires : ces comportement peuvent peut être liée à la régularité de la fonction, au sens physique des variables ou bien au modèle d'observation. Nous utilisons ces constructions pour l'estimation non-paramétriques de fonctions. Dans le cas des ondelettes, nous montrons l'optimalité de l'approche sur les espaces fonctionnelles habituels avant de présenter quelques exemples d’applications en débruitage de séquences d'images, de données spectrales et hyper-spectrales, écoulements incompressibles ou encore des images ultrasonores. En suite, nous modélisons un problème déconvolution de données d'imagerie par résonance magnétique fonctionnelle comme un problème de minimisation faisant apparaître un a priori de variation totale structuré en espace-temps. Nous adaptons une généralisation de l'éclatement explicite-implicite pour trouver une solution au problème de minimisation. / The problem of estimating a multivariate function from corrupted observations arises throughout many areas of engineering. For instance, in the particular field of medical signal and image processing, this task has attracted special attention and even triggered new concepts and notions that have found applications in many other fields. This interest is mainly due to the fact that the medical data analysis pipeline is often carried out in challenging conditions, since one has to deal with noise, low contrast and undesirable transformations operated by acquisition systems. On the other hand, the concept of sparsity had a tremendous impact on data reconstruction and restoration in the last two decades. Sparsity stipulates that some signals and images have representations involving only a few non-zero coefficients. The present PhD dissertation introduces new constructions of sparsity priors for wavelets and total variation. These construction harness notions of generalized anisotropy that enables grouping variables into sub-sets having similar behaviour; this behaviour can be related to the regularity of the unknown function, the physical meaning of the variables or the observation model. We use these constructions for non-parametric estimation of multivariate functions. In the case of wavelet thresholding, we show the optimality of the procedure over usual functional spaces before presenting some applications on denoising of image sequence, spectral and hyperspectral data, incompressible flows and ultrasound images. Afterwards, we study the problem of retrieving activity patterns from functional Magnetic Resonance Imaging data without incorporating priors on the timing, durations and atlas-based spatial structure of the activation. We model this challenge as a spatio-temporal deconvolution problem. We propose the corresponding variational formulation and we adapt the generalized forward-backward splitting algorithm to solve it.
753

Impact des transformations algorithmiques sur la synthèse de haut niveau : application au traitement du signal et des images / Impact of algorithmic transforms for High Level Synthesis (HLS) : application to signal and image processing

Ye, Haixiong 20 May 2014 (has links)
La thèse porte sur l'impact d'optimisations algorithmiques pour la synthèse automatique HLS pour ASIC. Ces optimisations algorithmiques sont des transformations de haut niveau, qui de part leur nature intrinsèque restent hors de porter des compilateurs modernes, même les plus optimisants. Le but est d'analyser l'impact des optimisations et transformations de haut niveau sur la surface, la consommation énergétique et la vitesse du circuit ASIC. Les trois algorithmes évalués sont les filtres non récursifs, les filtres récursifs et un algorithme de détection de mouvement. Sur chaque exemple, des gains ont été possibles en vitesse et/ou en surface et/ou en consommation. Le gain le plus spectaculaire est un facteur x12.6 de réduction de l'énergie tout en maitrisant la surface de synthèse et en respectant la contrainte d'exécution temps réel. Afin de mettre en perspective les résultats (consommation et vitesse), un benchmark supplémentaire a été réalisé sur un microprocesseur ST XP70 avec extension VECx, un processeur ARM Cortex avec extension Neon et un processeur Intel Penryn avec extensions SSE. / The thesis deals with the impact of algorithmic transforms for HLS synthesis for ASIC. These algorithmic transforms are high level transforms that are beyond the capabilities of modern optimizing compilers. The goal is to analyse the impact of the High level transforms on area execution time and energy consumption. Three algorithms have been analyzed: non recursive filters, recursive filter and a motion detection application. On each algorithm, the optimizations and transformations lead to speedups and area/surface gains. The most impressive gain in energy reduction is a factor x12.6, while the area remains constant and the execution time smaller than the real-time constraint. A benchmark has been done on SIMD general purpose processor to compare the impact of the high level transforms: ST XP70 microprocessor with VECx extension, ARM Cortex with Non extension and Intel Penryn with SSE extension.
754

Etude et conception d'algorithmes de correction d'erreurs dans des structures de conversion analogique-numérique entrelacées pour applications radar et guerre électronique / Study and Design of Mismatch Correction Algorithms in Time-Interleaved Analog to Digital Converters for Radar and Electronic Warfare Applications

Bonnetat, Antoine 14 December 2015 (has links)
L’ évolution des systèmes radar et de guerre électronique tend à concevoir desrécepteurs numériques possédant des bandes instantanées de plus en plus larges. Cette contraintese reporte sur les Convertisseurs Analogique-Numérique (CAN) qui doivent fournir une fréquenced’échantillonnage de plus en plus élevée tout en conservant une puissance dissipée réduite. Unesolution pour répondre à cette demande est le CAN à Temps Entrelacés (ET-CAN) qui paralléliseM CANs pour augmenter la fréquence d’échantillonnage d’un facteur M tout en restant dansun rapport proportionné avec la puissance dissipée. Cependant, les performances dynamiquesdes ET-CANs sont réduites par des défauts d’entrelacements liés à des différences de processusde fabrication, de leur tension d’alimentation et des variations de température. Ces défautspeuvent être modélisés comme issus des disparités d’offsets, de gains ou décalages temporels etglobalement comme issus des disparités de réponses fréquentielles. Ce sont sur ces dernièresdisparités, moins traitées dans la littérature, que portent nos travaux. L’objectif est d’étudierces disparités pour en déduire un modèle et une méthode d’estimation puis, de proposer desméthodes de compensation numérique qui peuvent être implémentées sur une cible FPGA.Pour cela, nous proposons un modèle général des disparités de réponses fréquentielles desET-CANs pour un nombre de voies M quelconques. Celui-ci mélange une description continuedes disparités et une description discrète de l’entrelacement, résultant sur une expression desdéfauts des ET-CANs comme un filtrage à temps variant périodique (LPTV) du signal analogiqueéchantillonné uniformément. Puis, nous proposons une méthode d’estimation des disparitésdes ET-CANs basée sur les propriétés de corrélation du signal en sortie du modèle, pour Mvoies quelconques. Ensuite, nous définissions une architecture de compensation des disparitésde réponses fréquentielles des ET-CANs et nous étudions ses performances en fonction de sesconfigurations et du signal en entrée. Nous décrivons une implémentation de cette architecturepour M=4 voies entrelacées sur cible FPGA et nous étudions les ressources consommées afin deproposer des pistes d’optimisation. Enfin, nous proposons une seconde méthode de compensationspécifique au cas M=2 voies entrelacées, dérivée de la première mais travaillant sur le signalanalytique en sortie d’un ET-CAN et nous la comparons à une méthode similaire de l’état del’art. / The evolution of radar and electronic warfare systems tends to develop digitalreceivers with wider bandwidths. This constraint reaches the Analog to Digital Converters(ADC) which must provide a sample rate higher and higher while maintaining a reducedpower dissipation. A solution to meet this demand is the Time-Interleaved ADC (TIADC)which parallelizes M ADCs, increasing the sampling frequency of an M factor while still ina proportionate relation to the power loss. However, the dynamic performance of TIADCsare reduced by errors related to the mismatches between the sampling channels, due to themanufacturing processes, the supply voltage and the temperature variations. These errors canbe modeled as the result of offset, gain and clock-skew mismatches and globally as from thefrequency response mismatches. It is these last mismatches, unless addressed in the literaturethat carry our work. The objective is to study these errors to derive a model and an estimationmethod then, to propose digital compensation methods that can be implemented on a FPGAtarget.First, we propose a general TIADC model using frequency response mismatches for any Mchannel number. Our model merge a continuous-time description of mismatches and a discretetimeone of the interleaving process, resulting in an expression of the TIADC errors as a linearperiodic time-varying (LPTV) system applied to the uniformly sampled analog signal. Then,we propose a method to estimate TIADC errors based on the correlation properties of theoutput signal for any M channel. Next, we define a frequency response mismatch compensationarchitecture for TIADC errors and we study its performance related to its configuration and theinput signal. We describe an FPGA implementation of this architecture for M=4 interleavedchannels and we study the resources consumption to propose optimisations. Finally, we proposea second compensation method, specific to M=2 interleaved channels and derived from the firstone, but working on the analytical signal from the TIADC output and we compare it to a similarstate-of-the-art method.
755

Interprétation des informations sensorielles des récepteurs du muscle squelettique pour le contrôle externe

Djilas, Milan 13 October 2008 (has links) (PDF)
Le sujet de cette thèse se situe dans le cadre général de la restauration du mouvement de membres paralysés à travers la stimulation électrique fonctionnelle (FES) implantée. L'objectif du projet était d'explorer la faisabilité d'utiliser les informations issues des fibres nerveuses sensorielles des récepteurs musculaires comme information de retour d'une commande en boucle fermée d'un système FES à travers des électrodes nerveuses périphériques intra fasciculaires. Des expérimentations animales aigues ont été réalisées pour mesurer les réponses afférentes des fuseaux neuromusculaires à des étirements passifs du muscle. Les enregistrements ont été réalisés en utilisant une nouvelle électrode Intra-fasciculaire (tfLIFE), développées par le Dr. Ken Yoshida à l'université d'Aalborg au Danemark. Un modèle du premier ordre de la réponse des fuseaux neuromusculaires à des étirements passifs a été proposé. Ce modèle prend en compte les propriétés non linéaires des activités neurales afférentes. De plus, l'estimation de l'état du muscle à partir d'un enregistrement ENG multicanaux a fourni des résultats plus robustes comparés à un enregistrement monocanal.<br />Pour que le modèle ci-dessus puisse être utilisé pour l'estimation de l'état du muscle, le taux de variation de la longueur du muscle pendant le mouvement doit avoir un effet négligeable sur les paramètres du modèle. Nous avons proposé dans cette thèse une approche pour la détection et la classification de pics dans l'enregisrement neural dans l'objectif d'isoler les activités neurales sensorielles des récepteurs musculaires ayant une sensibilité minimale à la vitesse de l'élongation musculaire. L'algorithme est basé sur la transformée en ondelettes continue multi-échelle utilisant des ondelettes complexes. Le système de détection utilise une simple détection par seuillage, couramment utilisée, particulièrement avec les enregistrements ayant un faible rapport signal sur bruit. Les résultats de classification des unités montrent que la classification développée est capable d'isoler l'activité ayant une relation linéaire avec la longueur du muscle. Ceci constitue une étape vers une estimation, en ligne basée modèle, de la longueur du muscle qui pourra être utilisée dans un système FES en boucle fermée utilisant des informations sensorielles naturelles.<br />Un des principaux problèmes limitant l'interprétation des données ENG est le faible niveau du signal neural par rapport à celui du bruit dans l'enregistrement. Nos hypothèses ont été que le blindage de l'implant aiderait à améliorer le rapport signal sur bruit. Des résultats expérimentaux, issus d'une étude préliminaire que nous avons réalisée, montrent que le placement d'électrodes standards à manchon placées autour du site d'implantation de la tfLIFE augmentait le niveau du signal ENG dans les enregistrements.
756

Détection et analyse des signaux ultrasonores d'un dispositif Doppler multi-capteurs pour le suivi de l'activité fœtale

KRIBECHE, Ali 30 June 2005 (has links) (PDF)
Ce travail a pour but essentiel de mettre au point des outils permettant une meilleure analyse des signaux Doppler provenant de l'activité fœtale. Il s'inscrit dans le cadre d'un projet RNTS (Réseau National des Technologies pour la Santé) intitulé Actifoetus. Il consiste à traiter les signaux fournis par 12 capteurs ultrasonores placés sur le ventre maternel et reliés à un appareillage Doppler à émission pulsée multivoies, développé par la société Ultrasons Technologies, Tours. Chaque capteur détecte les signaux Doppler produits par les structures fœtales en mouvement à 5 profondeurs successives dans l'utérus maternel. <br />L'objectif principal du projet est d'extraire des paramètres reflétant l'activité fœtale (rythmes cardiaque et pseudo respiratoire, mouvements des membres et du tronc, réponse à des stimuli, ...) pour la surveillance et le suivi des grossesses. Une seconde étape était de définir, à partir de ces données, l'état de bien-être ou de souffrance du fœtus en vue d'un monitorage ambulatoire de certaines grossesses à risque. Cette application en télé médecine nécessitera la mise au point d'un système portable de type Holter. <br />Le travail réalisé a comporté dans un premier temps une participation à la mise au point définitive de l'appareillage et de la méthode de recueil de données. La plus grande partie du travail a ensuite été consacrée à la mise au point et à la validation du traitement des signaux enregistrés sur des grossesses de 20 à 30 semaines. Ces enregistrements ont permis de montrer la qualité des signaux Doppler d'activité fœtale fournis par le système Actifoetus, et de valider l'utilisation de la Transformée de Fourier Rapide (FFT) et de la Fonction d'Autocorrélation (ACF) pour détecter l'activité cardiaque et les mouvements du fœtus. Nous avons pu également montrer que l'Analyse en Composantes Indépendantes (ACI) permet de séparer avec succès un mélange de plusieurs signaux Doppler. <br />La principale originalité du travail réside dans l'extraction d'informations statistiquement pertinentes concernant les mouvements et les rythmes du fœtus à partir de plusieurs capteurs ultrasonores. La mise en correspondance de ces données avec les signaux d'activité de la mère (Accéléromètre), ou de stimuli neurosensoriels, devrait permettre des applications cliniques importantes.<br />Le projet est conçu pour déboucher sur un appareil miniaturisé commercialisable à partir du démonstrateur réalisé. Les aspects de protection industrielle seront examinés aussi bien en ce qui concerne l'appareil holter lui-même, qu'au niveau des algorithmes de traitement et de fusion des données.
757

Développement de méthodes de séparation des nombres d'onde acoustiques et convectifs en écoulements turbulents pariétaux

Debert, Sébastien 18 December 2008 (has links) (PDF)
Ce travail a pour but le développement de techniques de séparation des contributions acoustique et aérodynamique de champs de pression pariétale sous des écoulements turbulents. Ces techniques de séparation, dites en nombre d'onde, se basent sur les propriétés spatiales de ces fluctuations. La compréhension des phénomènes de chacun des deux types fluctuations de pression pariétale s'exerçant sur la vitre latérale d'un véhicule vient servir un enjeu industriel de réduction du niveau sonore intérieur du bruit de forme des automobiles. Pour ce faire, des expérimentations en soufflerie anéchoïque sont menées afin d'obtenir des mesures de pression pariétale fluctuante pour divers types d'écoulements. Ainsi un écoulement de couche limite turbulente pleinement développée sur plaque plane, des écoulements décollés en aval de trois géométries de marches montantes, ainsi qu'en aval d'un montant de baie sur véhicule réel sont considérés. Une représentation des spectres en nombre d'onde-fréquence (obtenue par la méthode du corrélogramme spatial) est choisie pour séparer les deux contributions. Cette technique ne s'appliquant que sur des écoulements stationnaires et homogènes, de nouvelles techniques basées sur la Décomposition Modale Empirique (EMD) sont utilisées, d'une part pour améliorer la séparation des deux contributions (grâce à l'EMD spatiale), d'autre part pour obtenir une décomposition multi-échelle au cours du temps (grâce à l'Ensemble-EMD). Grâce à ces méthodes, une observation plus précise des phénomènes pariétaux convectifs et acoustiques est proposée.
758

Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEG

Bourien, Jérôme 20 December 2003 (has links) (PDF)
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:<br /><br />1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.<br /><br />2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.<br /><br />3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").<br /><br />4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.<br /><br />Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
759

Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique

Alata, Olivier 04 October 2010 (has links) (PDF)
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
760

Luminance-Chrominance linear prediction models for color textures: An application to satellite image segmentation

Qazi, Imtnan-Ul-Haque 01 July 2010 (has links) (PDF)
Cette thèse détaille la conception, le développement et l'analyse d'un nouvel outil de caractérisation des textures exploitant les modèles de prédiction linéaire complexe sur les espaces couleur perceptuels séparant l'intensité lumineuse de la partie chromatique. Des modèles multicanaux 2-d causaux et non-causaux ont été utilisés pour l'estimation simultanée des densités spectrales de puissance d'une image " bi-canal ", le premier contenant les valeurs réelles de l'intensité et le deuxième les valeurs complexes de la partie chromatique. Les bonnes performances en terme de biais et de variance de ces estimations ainsi que l'usage d'une distance appropriée entre deux spectres assurent la robustesse et la pertinence de l'approche pour la classification de textures. Une mesure de l'interférence existante entre l'intensité et la partie chromatique à partir de l'analyse spectrale est introduite afin de comparer les transformations associées aux espaces couleur. Des résultats expérimentaux en classification de textures sur différents ensembles de tests, dans différents espaces couleur (RGB, IHLS et L*a*b*) sont présentés et discutés. Ces résultats montrent que la structure spatiale associée à la partie chromatique d'une texture couleur est mieux caractérisée à l'aide de l'espace L*a*b* et de ce fait, cet espace permet d'obtenir les meilleurs résultats pour classifier les textures à l'aide de leur structure spatiale et des modèles de prédiction linéaire. Une méthode bayésienne de segmentation d'images texturées couleur a aussi été développée à partir de l'erreur de prédiction linéaire multicanale. La contribution principale de la méthode réside dans la proposition d'approximations paramétriques robustes pour la distribution de l'erreur de prédiction linéaire multicanale : la distribution de Wishart et une approximation multimodale exploitant les lois de mélanges gaussiennes multivariées. Un autre aspect original de l'approche consiste en la fusion d'un terme d'énergie sur la taille des régions avec l'énergie du modèle de Potts afin de modéliser le champ des labels de classe à l'aide d'un modèle de champ aléatoire possédant une distribution de Gibbs. Ce modèle de champ aléatoire est ainsi utilisé pour régulariser spatialement un champ de labels initial obtenu à partir des différentes approximations de la distribution de l'erreur de prédiction. Des résultats expérimentaux en segmentation d'images texturées couleur synthétiques et d'images satellites hautes résolutions QuickBird et IKONOS ont permis de valider l'application de la méthode aux images fortement texturées. De plus les résultats montrent l'intérêt d'utiliser les approximations de la distribution de l'erreur de prédiction proposées ainsi que le modèle de champ de labels amélioré par le terme d'énergie qui pénalise les petites régions. Les segmentations réalisées dans l'espace L*a*b* sont meilleures que celles obtenues dans les autres espaces couleur (RGB et IHLS) montrant à nouveau la pertinence de caractériser les textures couleur par la prédiction linéaire multicanale complexe à l'aide de cet espace couleur.

Page generated in 0.0845 seconds