Spelling suggestions: "subject:"traitement duu signal ett dde l'image"" "subject:"traitement duu signal ett dee l'image""
41 |
Traitement d'images satellitaires appliqué à la cartographie numérique quantitative de la circulation océanique superficielleBianchi, Brigitte 22 April 1988 (has links) (PDF)
A partir d'une analyse diachronique de thermographies satellitaires, il est possible de calculer le courant à la surface de l'océan en faisant appel à l'équation de conservation de la chaleur, réduite à une équation d'advection instationnaire. Les thermographies sont issues des données des satellites de la série NOAA, équipés d'un capteur AVHRR. La résolution de l'équation passe par plusieurs étapes de traitement numérique. L'obtention des températures réelles de la mer requiert un étalonnage du capteur satellitaire ainsi qu'une correction des effets atmosphériques. Les thermographies sont rectifiées géométriquement afin de les rendre superposables. Elles sont ensuite filtrées afin d'éliminer les fréquences indésirables. La moyenne des deux thermographies fournira le gradient horizontal et leur différence, la dérivée temporelle. L'interpolation des isothermes en prenant appui sur une transformée en distance permettra d'augmenter le nombre de points de résolution de l'équation pour obtenir une meilleure cartographie du courant. Le champ de courant sera déterminé le long des isothermes interceptant un ensemble de points pour lesquels la fonction de courant est connue. La détermination automatique de la précision du modèle sera faite en parcourant de manière opposée la démarche utilisée pour calculer la fonction de courant. L'analyse d'un tourbillon issu du Gulf Stream et du courant dans le golfe du Lion illustre les différentes étapes de ce calcul du courant superficiel. Cette méthode de détermination du courant marin de surface est délicate à mettre en oeuvre car le nombre de points de résolution de l''équation est souvent très faible et il en résulte une cartographie du vecteur courant difficile à réaliser.
|
42 |
Segmentation par contours actifs de séquences de vélocimétrie IRM Application aux artères carotidesTrebuchet, Guillaume 27 September 2013 (has links) (PDF)
La vélocimétrie par IRM est une modalité intéressante pour explorer des pathologies cardiovasculaires. La séquence d'IRM en contraste de phase a la particularité de fournir à la fois des informations anatomiques et des informations physiologiques, permettant ainsi de mesurer les propriétés géométriques des vaisseaux ainsi que leurs propriétés hémodynamiques. Le but de cette thèse est d'automatiser la segmentation des vaisseaux et les mesures de vélocimétrie, un traitement manuel étant inadapté à une exploitation de la vélocimétrie IRM à des fins diagnostiques en routine clinique. Les travaux menés ont conduit à proposer une méthode de segmentation basée sur les contours actifs guidés par une information région (approche " région "), contrairement aux approches classiques se focalisant uniquement sur les frontières inter-régions (approche " contour "). Cette approche " région " a été évaluée sur des données provenant d'un fantôme réalisé afin de disposer d'une référence objective. Une seconde évaluation a été réalisée sur une base de 28 carotides (14 patients) segmentées manuellement par un radiologue expert. Les résultats obtenus sur les données " fantôme " montrent que l'approche " contour " conduit à une erreur de mesure de l'aire de la lumière de la carotide segmentée et de la mesure du flux de respectivement 18.4 % et 3.6 %. Ces erreurs sont plus importantes que celles obtenues en utilisant l'approche proposée (respectivement 2.3 % et 0.7 %). Ce bénéfice apparaît encore bien supérieur sur la base de patients avec une sous-estimation des aires et débits sanguins de respectivement 40.5 % et 26.5 % pour l'approche " contour ", contre 14,7 et 6.4 % pour l'approche proposée.
|
43 |
Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétationMangolini, Marc 15 November 1994 (has links) (PDF)
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
|
44 |
Deux problèmes dans la formation des images numériques : l'estimation du noyau local de flou d'une caméra et l'accélération de rendus stochastiques par filtrage auto-similaire.Delbracio, Mauricio 25 March 2013 (has links) (PDF)
Cette thèse s'attaque à deux problèmes fondamentaux dans la formation des images numériques : la modélisation et l'estimation du flou introduit par une caméra numérique optique, et la génération rapide des images de synthèse photoréalistes. L'évaluation précise du flou intrinsèque d'une caméra est un problème récurrent en traitement d'image. Des progrès technologiques récents ont eu un impact significatif sur la qualité de l'image. Donc, une amélioration de la précision des procédures de calibration est impérative pour pousser plus loin cette évolution. La première partie de cette thèse présente une théorie mathématique de l'acquisition physique de l'image par un appareil photo numérique. Sur la base de cette modélisation, deux algorithmes automatiques pour estimer le flou intrinsèque de la l'appareil sont proposés. Pour le premier, l'estimation est effectuée à partir d'une photographie d'une mire d'étallonnage spécialement conçue à cet effet. L'une des principales contributions de cette thèse est la preuve qu'une mire portant l'image d'un bruit blanc est proche de l'optimum pour estimer le noyau de flou. Le deuxième algorithme évite l'utilisation d'une mire d'étallonnage, procédure qui peut devenir un peu encombrante. En effet, nous montrons que deux photos d'une scène plane texturée, prises à deux distances différentes avec la même configuration de l'appareil photo, suffisent pour produire une estimation précise. Dans la deuxième partie de cette thèse, nous proposons un algorithme pour accélérer la synthèse d'images réalistes. Plusieurs heures, et même plusieurs jours peuvent être nécessaires pour produire des images de haute qualité. Dans un rendu typique, les pixels d'une image sont formés en établissant la moyenne de la contribution des rayons stochastiques lancés à partir d'une caméra virtuelle. Le principe d'accélération, simple mais puissant, consiste à détecter les pixels similaires en comparant leurs histogrammes de rayons et à leur faire partager leurs rayons. Les résultats montrent une accélération significative qui préserve la qualité de l'image.
|
45 |
UNE NOUVELLE APPROCHE DE PLACEMENT DE DONNEES EN MEMOIRE : APPLICATION A LA CONCEPTION D'ARCHITECTURES D'ENTRELACEURS PARALLELESBriki, Aroua 01 July 2013 (has links) (PDF)
Les applications du traitement du signal (TDSI) sont maintenant largement utilisées dans des domaines variés allant de l'automobile aux communications sans fils, en passant par les applications multimédias et les télécommunications. La complexité croissante des algorithmes implémentés et l'augmentation continue des volumes de données et des débits applicatifs requièrent souvent la conception de circuits intégrés dédiés (ASIC). Typiquement l'architecture d'un composant complexe du TDSI utilise (1) des éléments de calculs de plus en plus complexes, (2) des mémoires et des modules de brassage de données (entrelaceur/désentrelaceur pour les TurboCodes, blocs de redondance spatio-temporelle dans les systèmes OFDM1/MIMO, ...). Aujourd'hui, la complexité et le coût de ces systèmes sont très élevés; les concepteurs doivent pourtant parvenir à minimiser la consommation et la surface total du circuit, tout en garantissant les performances temporelles requises. Sur cette problématique globale, nous nous intéressons à l'optimisation des architectures des modules de brassage de données (réseau d'interconnexion, contrôleur...) devant réaliser une règle d'entrelacement définie par l'application et ayant pour objectif d'utiliser un réseau d'interconnexion défini par le concepteur. L'architecture que nous ciblons se compose d'éléments de calculs (PE0,...PEn), de mémoires de données utilisées pour stocker les opérandes et les résultats produits par les éléments de calculs (Mem0,...Memm), d'un réseau d'interconnexion reliant les éléments de calculs aux mémoires et d'une unité de contrôle. Le réseau d'interconnexion est défini par l'utilisateur et peut être basé sur différent modèles : cross-bar, réseaux de Benes, réseau de Bruinj, barrière de multiplexeurs, barrel-shifters (barillets), papillons... L'unité de contrôle est composée de deux parties : un contrôleur de réseau et un contrôleur de mémoires. Ces contrôleurs sont basés sur un ensemble de mémoires de contrôle (une ROM de contrôle par banc mémoire Mem dans l'architecture cible) contenant les mots de commande relatifs au fonctionnement du système. L'approche que nous proposons est à même d'optimiser cette partie de contrôle de l'architecture. Nous proposons plusieurs méthodologies d'exploration et de conception permettant de générer automatiquement une architecture d'entrelacement optimisée réalisant une règle de brassage de données, ou entrelacement, tel que définie par exemple dans un standard de communication. Les approches que nous proposons prennent en entrée (1) des diagrammes temporels (générés à partir de la règle d'entrelacement et de contraintes spécifiant les séquences d'accès parallèles aux données) et (2) une contrainte utilisateur sur le réseau d'interconnexion que doit utiliser l'architecture. Ce flot formalise ensuite ces contraintes de brassage des données sous la forme (1) d'un modèle matriciel des séquences de données qui devront être traitées par chaque processeur et (2) d'un Graphe de Conflit d'Adressage (ACG), dont les propriétés permettent une exploration efficace de l'espace des solutions architecturales. L'objectif est ensuite de générer une architecture cible, en garantissant un fonctionnement sans conflit d'accès mémoire (lorsque plusieurs processeurs veulent accéder en même temps à un même banc mémoire mais pour traiter des données différentes), en respectant la contrainte de réseau et en optimisant l'architecture obtenue (notamment concernant l'architecture de son contrôleur). Cette approche a été mise en oeuvre au sein d'un d'outil et appliquée sur plusieurs cas d'étude : High Speed Packet Access (HSPA), Ultra-WideBand (UWB) et une application Wimax. Ces expériences montrent qu'en comparaison aux approches de l'état de l'art nos approches permettent d'atteindre des gains en surface significatifs. Notamment, pour des applications Turbo Codes pour lesquels les gains sont très importants.
|
46 |
Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérantsBenichoux, Alexis 14 October 2013 (has links) (PDF)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indéter- mination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algo- rithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le mi- nimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires.
|
47 |
Polarimetric RADARSAT-2 and ALOS PALSAR multi-frequency analysis over the archaeological site of Gebel Barkal (Sudan)Patruno, Jolanda 10 April 2014 (has links) (PDF)
Aim of PhD research is to exploit SAR Polarimetry technique for the identification of surface and subsurface archaeological features in the site of Gebel Barkal (Sudan), inscribed in the UNESCO World Heritage List since 2003. Sand penetration capability of both C-band and L-band sensors are discussed analysing archived ALOS PALSAR and RADARSAT-2 specifically acquired (2012-2013) images. Moreover, the research activity illustrates the potential of integrating SAR polarimetric and optical satellite data in a dedicated GIS project, realised in collaboration with the Universities of Turin and Venice (Italy). The monitoring of ancient sites by means of remotely acquired polarimetric SAR data represents a benefit for the archaeological research, where detected anomalies can address archaeological excavations or ground truth verification, as shown in the PhD dissertation, and where threatening factors affect the integrity of a cultural site.
|
48 |
Polarimetric multi-incidence angle analysis over the archaeological site of Samarra by means of RADARSAT-2 and ALOS PALSAR satellites datasetsDore, Nicole 10 April 2014 (has links) (PDF)
This work has as goal to study the microwaves behavior over the archaeological structures still visible in the historical city of Samarra, the capital of the ancient Abbasid Caliphate located in Iraq. Three areas were taken into account for the Ph.D. research: an octagonal city, three racecourses stadiums and the city of al-Mutawakkiliyya. Threats to which the site is exposed and its historical importance let the city to be inscribed in the list of UNESCO sites in danger (2007). This gave a reason more to investigate this area by means of SAR RADARSAT-2 and ALOS PALSAR satellites. SAR potentiality, in fact, is well known, in particular for those areas of the World where surveys in situ are not allowed because of political instability (as in the case of Samarra) and because of the possibility of acquiring with any cloud cover conditions and in any kind of illumination (day/night).
|
49 |
Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribuéPetrazzuoli, Giovanni 14 January 2013 (has links) (PDF)
Le codage vidéo distribué est un paradigme qui consiste en encoder indépendamment deux sources corrélées mais à les décoder conjointement. Wyner and Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion du codage de source conjoint sous quelques contraintes. Cette caractéristique rend le codage de source distribué très attractif pour applications qui demandent un encodeur à bas complexité (comme par example des réseaux des senseurs sans fil) ou pour éviter tout sorte de communication entre les source (comme dans les systèmes multi-vues). Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément mais elles sont encodées conjointement. Dans l'architecture de Stanford, la flux vidéo est séparée en trames clés (TC) et Wyner-Ziv (TWZ). Seulement les trames clés sont envoyées au décodeur. Les trames Wyner-Ziv sont donné en entrée à un codeur systématique de canal et les bits de parité sont envoyés au décodeur. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelé information adjacente, en interpolant les trames déjà disponibles au décodeur. L'information adjacente, qui peut être considérée comme une version bruitée de la vraie trame Wyner-Ziv, est corrigées par les bits de parité envoyées par l'encodeur. Dans cette thèse, on a étudié plusieurs algorithmes pour la génération de l'information adjacente dans le cadre du codage vidéo distribué multi-vues pour ce qui concerne et interpolation temporelle et l'interpolation inter-vue. Tous les algorithmes proposés donne des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Une deuxième contribution concerne le format vidéo multi-vues plus profondeur. Dans le cadre du paradigme du streaming interactive pour la vidéo multi-vues, le codage vidéo distribué assure la continuité de la reproduction pendant le streaming, puisque les trames Wyner-Ziv dont décodées indépendamment des trames de référence qui sont disponibles au décodeur. On a proposé plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans ce contexte-là.
|
50 |
Représentations parcimonieuse et applications en communication numériqueAïssa-El-Bey, Abdeldjalil 30 November 2012 (has links) (PDF)
L'objet de ce document est de rapporter une partie des travaux de recherche auxquels j'ai contribué durant les cinq dernières années. Le but visé n'est pas de faire une synthèse exhaustive des travaux réalisés sur cette période mais d'en sélectionner certains d'entre eux pour leur pertinence et leur cohérence. Les travaux rapportés dans ce manuscrit concernent l'exploitation des représentations parcimonieuses dans les applications en télécommunication. Depuis mes travaux de thèse, où j'ai abordé le problème de la séparation aveugle de sources en exploitant le caractère parcimonieux des signaux audio, mes travaux gravitent autour des représentations parcimonieuses et leurs applications en communication numérique. En effet, après avoir exploité la propriété de parcimonie des signaux audio dans le domaine temps-fréquence d'un point de vue structurel, je me suis intéressé aux mesures de parcimonie et aux problèmes inverses régularisés. Cette réflexion m'a poussé à entreprendre l'étude sur l'exploitation de la parcimonie pour l'estimation aveugle de canaux de communication. En particulier, l'identification aveugle de canaux parcimonieux dans les systèmes Single-Input Multiple-Output (SIMO). Une extension de ces techniques a été développée pour les systèmes Multiple-Input Multiple-Output MIMO OFDM où le cas semi-aveugle a été traité. L'identification de canaux pour les communications étant étroitement liée aux signaux à alphabet fini. Je me suis par conséquent intéressé à l'exploitation de cette caractéristique des signaux de communication (signaux à alphabet fini) par le biais des représentations parcimonieuses afin de résoudre certains problèmes inverses difficiles. Enfin, j'ai abordé le problème de détection de signaux en utilisant des méthodes de tests statistiques basées sur l'hypothèse de parcimonie des signaux observés. Ces méthodes ont trouvés un cadre applicatif dans les communications sans fil, la guerre électronique et la séparation aveugle de sources.
|
Page generated in 0.1326 seconds