• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Transmission coopérative dans les réseaux sans-fil avec feedback distribué

De Kerret, Paul 17 December 2013 (has links) (PDF)
La coopération des transmetteurs dans les système multi-antennes a été reconnue comme un outil prometteur pour éviter ou aligner les interférence résultant d'une réutilisation agressive de la bande spectrale. Il est usuellement supposé que les estimées de canal sont parfaitement partagées entre tous les transmetteurs entrant en coopération, ce qui n'est pas adaptée à de nombreuses situations où des émetteurs éloignés visent à coopérer. C'est pourquoi nous étudions le cas de réseaux sans-fil où des transmetteurs émettent d'une manière coopérative bien qu'ils ne puissent échanger que d'une manière imparfaite l'information de canal obtenue localement. Ce partage imparfait de l'information de canal donne lieu à une configuration d'information de canal, dénotée comme " distribuée ", où chaque transmetteur reçoit une estimée du canal multi-utilisateurs qui lui est propre, à partir de laquelle il détermine ses paramètres de transmission. Nous étudions tout d'abord les conséquences de la configuration à information de canal distribuée sur le précodage. En particulier, nous mettons en évidence l'inefficacité des méthodes conventionnelles de précodage lorsque confrontées à une configuration à information de canal distribuée. Nous passons ensuite à un autre aspect de ce scenario, qui est la détermination de " qui doit savoir quoi ", lorsqu'il s'agit de l'information de canal disponible aux transmetteurs engagés dans la coopération. À l'opposé de la méthode gourmande en ressource qui consiste à allouer à chaque transmetteur la même information de canal, il est montrée comment une allocation non-uniforme de l'information de canal aux transmetteurs peut donner lieu à des gain importants, en fonction de la géométrie du réseau considéré.
232

Indentification de système sous la contrainte de non-négativité - Applications dans filtrage adaptatif et analyse dimage hyperspectrale

Chen, Jie 28 January 2013 (has links) (PDF)
Dans de nombreux phénomènes de la vie réelle en raison des caractéristiques physiques inhérentes des systèmes, la non-négativité est une contrainte désirée et éventuellement imposée sur les paramètres à estimer. L'objectif de cette thèse est d'étudier les théories et algorithmes pour l'identification de système sous contraintes, en particulier la contrainte de non-négativité et celle de somme-à-un sur le vecteur de paramètres. La première partie de la thèse traite le problème de système d'identification en-ligne soumis la non-négativité. L'algorithme Non-negative Least-Mean-Square (NNLMS) et ses variantes sont proposés. Les comportements stochastiques de ces algorithmes dans des environnements non-stationnaires sont étudiés analytiquement. Enfin, l'extension de ces algorithmes nous permet de dériver un algorithme de type LMS avec la régularisation de norme L1 La deuxième partie de la thèse porte sur un problème d'identification système spécifique - démélange non-linéaire de spectres, avec la contrainte de non-négativité et celle de somme-à-un. Nous formulons un nouveau paradigme avec noyaux sous l'hypothèse que le mélange peut être décrite par un mélange linéaire de composantes spectrales, avec des fluctuations additives non-linéaires définies dans un espace de Hilbert à noyau reproduisant. Un algorithme basé sur l'apprentissage des noyaux, est proposé afin de déterminer les abondances de matériels purs sous les contraintes. Enfin, la corrélation spatiale entre pixels est utilisée comme information a priori pour améliorer la performance.
233

Étude de la Dynamique des Ondes Spirales à l'Échelle Cellulaire par Modèles Expérimental et Numérique

Xu, Binbin 12 July 2012 (has links) (PDF)
Parmi les causes de décès d'origine cardiaque, les troubles du rythme occupent une place majeure, particulièrement les troubles auriculaires. Cette situation alarmante a motivé une recherche intense, mais qui est limitée par la disponibilité de modèles expérimentaux permettant de reproduire les mécanismes cellulaires de déclenchement et d'extensions de ces anomalies. Qu'ils surviennent sur un cœur sain ou pathologique, qu'ils soient bénins ou potentiellement dangereux (risque de mort subite), les troubles du rythme constituent un chapitre important de la cardiologie. Ils posent d'importants problèmes d'ordre diagnostique, pronostique, et thérapeutique. Ils peuvent se produire au niveau atrial (nœud auriculo-ventriculaire, plus tronc du faisceau de HIS avant sa division) ou ventriculaire (après la division du faisceau de HIS en ses deux branches droite et gauche), et ils obéissent à différents mécanismes, au premier rang desquels les réentrées et les hyperautomatismes. Cette thèse s'intéresse à l'étude et la modélisation des troubles du rythme cardiaque à l'échelle cellulaire. Ainsi la problématique de la thèse peut être résumée succinctement par ces quelques mots clés : système non-linéaire, modèles cardiaques, ondes spirales, défibrillation.... Une des questions qui a été soulevée est : comment optimiser le processus de défibrillation pour qu'il soit le moins contraignant pour le patient ? Nous avons commencé par nous intéresser à la défibrillation par stimulation électrique. La stimulation externe peut terminer la fibrillation mais peut aussi éventuellement générer de nouvelles ondes dans le tissu cardiaque. Ce dernier effet de stimulation semble inévitable, si l'énergie de stimulation dépasse certains seuils. Nous nous sommes posé alors une question: comment peut-on terminer la fibrillation en appliquant une stimulation sous le seuil pour éviter d'engendrer d'autres problèmes. Après quelques pistes de réflexion, nous nous sommes orientés vers une stratégie hybride de stimulation qui permet d'atteindre cet objectif. En parallèle de ces travaux, nous avons travaillé aussi sur un système expérimental à base de MEA (Multi Electrodes Array). Ce système nous permet d'acquérir des signaux de cellules cardiaques de rats nouveau-nés en culture in vitro. Etant donné que les données recueillies peuvent être bruitées et erronées, nous avons utilisé des ondelettes pour le débruitage et la méthode de décomposition par les valeurs singulières pour éliminer les mauvais signaux. Comme mentionné précédemment, la stimulation peut provoquer de nouvelles ondes dans le tissu, ceci a été observé expérimentalement sous forme d'ondes spirales. Les prochains travaux serviront à approfondir " la stimulation hybride " au niveau théorique. Ensuite en profitant de notre plateforme MEA, nous allons tester la stratégie de défibrillation par stimulation hybride au niveau expérimental.
234

Filtrage anisotrope robuste régi par propagation de fronts : vers une segmentation automatique de volumes IRM

RAGOUBI HOR, Refka 17 April 2013 (has links) (PDF)
La segmentation fiable et précise des volumes anatomiques (normaux ou pathologiques) issus des systèmes d'imagerie reste un objectif important en traitement de l'information médicale car elle constitue le premier maillon de la chaîne d'analyse aboutissant à l'aide au diagnostic par l'étude de la morphologie des structures internes, à la détection et à la quantification de lésion. La segmentation est une étape délicate et difficile, en particulier pour les images IRM, pour lesquelles elle est principalement réalisée manuellement lorsqu'il y a des contraintes fortes de précision. Dans ce contexte, l'objectif de cette thèse est le filtrage des images IRM des structures osseuses articulaires du corps humain, en vue d'une aide efficace et précise à la segmentation. Une première contribution concerne le développement d'une méthode itérative de filtrage 3D anisotrope robuste. Elle permet de diffuser l'intensité des voxels selon leur appartenance à deux populations : forte diffusion pour les voxels situés à l'intérieur de régions homogènes afin de réduire le bruit, tout en empêchant cette diffusion de traverser les zones de transition (surfaces). Une comparaison rigoureuse de plusieurs fonctions d'arrêt de cette diffusion a été réalisée afin d'insérer, dans le modèle itératif, la fonction la plus pertinente. Le paramètre seuil partageant ces deux populations a été estimé de manière originale et efficace au regard de l'état de l'art. Ce schéma original de diffusion a été confronté aux méthodes de propagation de fronts. L'identification de ces deux modèles, actuellement dissociés dans la littérature, a permis de fusionner les deux approches en un schéma complet de diffusion anisotrope régie par propagation de fronts. Cette formulation a permis de contrer les désavantages de chacune des approches, à savoir i) la difficulté d'arrêter les schémas itératifs de diffusion, ii) la difficulté de mise en oeuvre des approches " level-sets " vis-à-vis des temps de calcul prohibitifs. Le schéma itératif proposé combine quatre termes liés à la diffusion, au contraste, aux données initiales et à la géométrie locale. En particulier, nous avons montré l'importance du "terme géométrique" qui remédie aux problèmes des discontinuités des contours après le filtrage. Une application sur données IRM d'articulations d'épaule, de hanche et de genou est présentée dans la partie test et validation. Les résultats sont quantifiés à l'aide de deux fonctions d'évaluation en contours et en régions. Elles démontrent une robustesse et une précision du modèle proposé dans l'élimination du bruit et la préservation des contours.
235

Assimilation de mesures satellitaires dans des modèles numériques par méthodes de contrôle optimal

Van Den Berghe, François 11 December 1992 (has links) (PDF)
Nous nous intéressons aux méthodes permettant d'assimiler les données de télédétection. Il y a principalement deux types de technique : les méthodes séquentielles, issues du filtrage de Kalman et les méthodes variationnelles, basées sur les équations adjointes du contrôle optimal. Les méthodes variationnelles sont récentes et nous essayons de présenter leur intérêt pour la télédétection à l'aide de deux applications. Une première étude est menée sur un modèle numérique d'advection-diffusion. Elle montre la faisabilité numérique de la méthode : il est possible de minimiser une fonction de coût mesurant la distance entre la trajectoire du modèle et des observations réparties à la fois dans le temps et dans l'espace. La deuxième application est réalisée sur des observations effectuées par le diffusiomètre-vent embarqué à bord du satellite Seasat. Son objet est la cartographie des champs de vent à la surface des océans. Sur une période de douze heures, nous assimilons les observations dans un modèle numérique non linéaire, discrétisant l'équation de la vorticité sur un domaine rectangulaire couvrant à peu près tout l'océan Atlantique nord. Une comparaison entre les champs de vent, obtenus par l'assimilation variationnelle, et ceux produits par une assimilation séquentielle, met en évidence la propriété de rétro-propagation de l'information dans le temps que possèdent les équations adjointes. Il en résulte des analyses sensiblement meilleures, surtout en début de période d'assimilation, et une grande cohérence dynamique entre les champs analysés et le modèle numérique.
236

Définition d'une méthodologie de détection de phénomènes dynamiques dans une chronique d'images et son application à quelques études

Moussu, Guy 07 December 1988 (has links) (PDF)
Des chroniques d'images sont utilisées pour la mise en évidence de phénomènes dynamiques. Trois applications ont été abordées dans un cadre opérationnel et ont permis de définir une méthodologie générale dont les étapes sont : 1) une mise en coïncidence géométrique des images, 2) un traitement des images pour l'obtention de luminances normalisées, 3) un filtrage spécifique prenant en compte le caractère spatial ou temporel du processus étudié. La comparaison et le traitement automatique d'images représentant une même scène nécessitent d'une part la mise en coïncidence géométrique des images. Pour cela, différentes méthodes de corrélation entre images sont établies puis comparées. D'autre part, les luminances doivent être normalisées afin de corriger leurs variations au cours du temps. La normalisation est effectuée soit par un ajustement du codage sur la dynamique des valeurs, soit par une modélisation de l'évolution temporelle de la luminance en chaque point. La première étude concerne la détection et le suivi de phénomènes météorologiques sur des images de la Terre, fournies par des satellites météorologiques, et affichées sur un écran couleur. On a développé une méthode d'animation de ces images en vue d'une aide à la prévision météorologique. Si l'objet de la première étude résidait dans le suivi des nuages, le but de la seconde est la construction d'une image sans nuage grâce à un filtrage adaptatif et itératif, afin d'obtenir une image du sol vu par ciel clair. La troisième étude concerne la détection précoce de fumées d'incendie de forêt. Quelques expériences ont permis de définir des caractéristiques spatiales et temporelles des fumées qui ont fourni les critères de détection.
237

Traitement d'images satellitaires appliqué à la cartographie numérique quantitative de la circulation océanique superficielle

Bianchi, Brigitte 22 April 1988 (has links) (PDF)
A partir d'une analyse diachronique de thermographies satellitaires, il est possible de calculer le courant à la surface de l'océan en faisant appel à l'équation de conservation de la chaleur, réduite à une équation d'advection instationnaire. Les thermographies sont issues des données des satellites de la série NOAA, équipés d'un capteur AVHRR. La résolution de l'équation passe par plusieurs étapes de traitement numérique. L'obtention des températures réelles de la mer requiert un étalonnage du capteur satellitaire ainsi qu'une correction des effets atmosphériques. Les thermographies sont rectifiées géométriquement afin de les rendre superposables. Elles sont ensuite filtrées afin d'éliminer les fréquences indésirables. La moyenne des deux thermographies fournira le gradient horizontal et leur différence, la dérivée temporelle. L'interpolation des isothermes en prenant appui sur une transformée en distance permettra d'augmenter le nombre de points de résolution de l'équation pour obtenir une meilleure cartographie du courant. Le champ de courant sera déterminé le long des isothermes interceptant un ensemble de points pour lesquels la fonction de courant est connue. La détermination automatique de la précision du modèle sera faite en parcourant de manière opposée la démarche utilisée pour calculer la fonction de courant. L'analyse d'un tourbillon issu du Gulf Stream et du courant dans le golfe du Lion illustre les différentes étapes de ce calcul du courant superficiel. Cette méthode de détermination du courant marin de surface est délicate à mettre en oeuvre car le nombre de points de résolution de l''équation est souvent très faible et il en résulte une cartographie du vecteur courant difficile à réaliser.
238

Segmentation par contours actifs de séquences de vélocimétrie IRM Application aux artères carotides

Trebuchet, Guillaume 27 September 2013 (has links) (PDF)
La vélocimétrie par IRM est une modalité intéressante pour explorer des pathologies cardiovasculaires. La séquence d'IRM en contraste de phase a la particularité de fournir à la fois des informations anatomiques et des informations physiologiques, permettant ainsi de mesurer les propriétés géométriques des vaisseaux ainsi que leurs propriétés hémodynamiques. Le but de cette thèse est d'automatiser la segmentation des vaisseaux et les mesures de vélocimétrie, un traitement manuel étant inadapté à une exploitation de la vélocimétrie IRM à des fins diagnostiques en routine clinique. Les travaux menés ont conduit à proposer une méthode de segmentation basée sur les contours actifs guidés par une information région (approche " région "), contrairement aux approches classiques se focalisant uniquement sur les frontières inter-régions (approche " contour "). Cette approche " région " a été évaluée sur des données provenant d'un fantôme réalisé afin de disposer d'une référence objective. Une seconde évaluation a été réalisée sur une base de 28 carotides (14 patients) segmentées manuellement par un radiologue expert. Les résultats obtenus sur les données " fantôme " montrent que l'approche " contour " conduit à une erreur de mesure de l'aire de la lumière de la carotide segmentée et de la mesure du flux de respectivement 18.4 % et 3.6 %. Ces erreurs sont plus importantes que celles obtenues en utilisant l'approche proposée (respectivement 2.3 % et 0.7 %). Ce bénéfice apparaît encore bien supérieur sur la base de patients avec une sous-estimation des aires et débits sanguins de respectivement 40.5 % et 26.5 % pour l'approche " contour ", contre 14,7 et 6.4 % pour l'approche proposée.
239

Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation

Mangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
240

Deux problèmes dans la formation des images numériques : l'estimation du noyau local de flou d'une caméra et l'accélération de rendus stochastiques par filtrage auto-similaire.

Delbracio, Mauricio 25 March 2013 (has links) (PDF)
Cette thèse s'attaque à deux problèmes fondamentaux dans la formation des images numériques : la modélisation et l'estimation du flou introduit par une caméra numérique optique, et la génération rapide des images de synthèse photoréalistes. L'évaluation précise du flou intrinsèque d'une caméra est un problème récurrent en traitement d'image. Des progrès technologiques récents ont eu un impact significatif sur la qualité de l'image. Donc, une amélioration de la précision des procédures de calibration est impérative pour pousser plus loin cette évolution. La première partie de cette thèse présente une théorie mathématique de l'acquisition physique de l'image par un appareil photo numérique. Sur la base de cette modélisation, deux algorithmes automatiques pour estimer le flou intrinsèque de la l'appareil sont proposés. Pour le premier, l'estimation est effectuée à partir d'une photographie d'une mire d'étallonnage spécialement conçue à cet effet. L'une des principales contributions de cette thèse est la preuve qu'une mire portant l'image d'un bruit blanc est proche de l'optimum pour estimer le noyau de flou. Le deuxième algorithme évite l'utilisation d'une mire d'étallonnage, procédure qui peut devenir un peu encombrante. En effet, nous montrons que deux photos d'une scène plane texturée, prises à deux distances différentes avec la même configuration de l'appareil photo, suffisent pour produire une estimation précise. Dans la deuxième partie de cette thèse, nous proposons un algorithme pour accélérer la synthèse d'images réalistes. Plusieurs heures, et même plusieurs jours peuvent être nécessaires pour produire des images de haute qualité. Dans un rendu typique, les pixels d'une image sont formés en établissant la moyenne de la contribution des rayons stochastiques lancés à partir d'une caméra virtuelle. Le principe d'accélération, simple mais puissant, consiste à détecter les pixels similaires en comparant leurs histogrammes de rayons et à leur faire partager leurs rayons. Les résultats montrent une accélération significative qui préserve la qualité de l'image.

Page generated in 0.4284 seconds