• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Analyse Temps-Fréquence appliquée à l'imagerie SAR polarimétrique.

Duquenoy, Mickaël 20 October 2009 (has links) (PDF)
L'imagerie SAR considère les cibles comme un ensemble de diffuseurs ponctuels, isotropes et non-dispersifs. Ce modèle devient obsolète pour les nouvelles applications radar qui utilisent une large bande et une forte excursion angulaire. Il s'agit donc d'étudier les non-stationnarités par l'outil usuel : l'analyse temps-fréquence. Les transformées temps-fréquence usuelles permettent de construire des hyperimages (images à 4 dimensions) décrivant l'énergie en fonction de la fréquence émise et de l'angle de visée. Cette source d'information est reliée à la section efficace radar (SER). Une autre source d'information en imagerie radar est la polarimétrie. Il s'agit d'utiliser conjointement ces deux sources d'information afin de caractériser les diffuseurs. Par application des ondelettes continues et des décompositions cohérentes sur la matrice de Sinclair, des hyperimages polarimétriques sont générées. Ces hyperimages permettent de décrire le comportement polarimétrique en fonction de l'angle de visée et de la fréquence émise. Dans certains cas, elles décrivent globalement le mécanisme de rétrodiffusion, par sa nature, son orientation relative dans le plan horizontal et son orientation absolue dans le plan vertical. De plus, elles mettent en évidence un nouveau phénomène : la non-stationnarité polarimétrique. Celle-ci serait causée par le fait que le radar ne voit pas la même géométrie au cours de l'acquisition. De ces hyperimages polarimétriques, l'information est synthétisée et une nouvelle classification phénoménologique est proposée.
262

Application du retournement temporel (RT) aux systèmes de communications ultra large bande (ULB) et multi-antennes (MIMO)

Naqvi, Ijaz Haider 15 December 2009 (has links) (PDF)
Dans les systèmes ultra large bande (ULB), des impulsions RF extrêmement étroites sont employées pour la communication entre émetteurs et récepteurs. En raison de leur bande passante très large, les signaux ULB entraînent un grand nombre de trajets multiples résolvables et donc réduisent les interférences provoquées par la superposition de ces trajets. Toutefois, cela nécessite la mise en œuvre d'un système de réception complexe. Le retournement temporel (RT) est une approche qui permet d'utiliser des récepteurs simples en déplaçant la complexité vers l'émetteur. Le signal reçu RT est très focalisé dans les domaines temporel et spatial. Les focalisations temporelle et spatiale permettent de réduire respectivement l'interférence entre symboles et l'interférence multi-utilisateurs. Dans cette thèse, nous étudions la technique du RT en ULB et son application aux communications haut débit. La validation de la technique du RT dans le laboratoire est réalisée et une étude paramétrique du RT est faite avec différentes configurations multi-antennes (SISO, SIMO, MISO et MIMO). Les résultats montrent que la configuration RT-MIMO présente les meilleures performances. La robustesse du RT est également étudiée dans des environnements non stationnaires. La robustesse du RT est également étudiée dans des environnements non stationnaires. Les résultats suggèrent que si le canal garde une certaine corrélation partielle avec le canal précédent, le RT peut donner une bonne robustesse même si la corrélation totale des canaux est très faible. Bien que les performances obtenues soient meilleures avec des bandes passantes supérieures, la dégradation des performances avec les variations dans le canal reste du même ordre de grandeur. Ensuite, le RT est étudié du point de vue communication. Des validations expérimentales d'une nouvelle technique de modulation et la communication à haut débit sont effectuées pour des canaux denses en trajets multiples. On montre que les performances de TEB en indoor sont meilleures que celles obtenues en chambre réverbérante. Par ailleurs, avec une transmission RT par sous bandes, qui constitue une sorte d'égalisation, le TEB peut être sensiblement amélioré. Enfin, la communication RT multi-utilisateur a été examinée avec des modifications dans le pré-filtre. Le RT modifié donne de meilleures performances que le RT classique ou le RT avec permutation circulaire. Les résultats présentés dans cette thèse suggèrent que le RT en ULB, qui peut être facilement combiné avec les systèmes MIMO, est une approche prometteuse pour les futurs réseaux de locaux et personnels (WLAN et WPAN) sans fils.
263

Application du Retournement Temporel aux systèmes multi-porteuses : propriétés et performances

Dubois, Thierry 25 March 2013 (has links) (PDF)
Le trafic de données a connu une explosion durant les dernières décennies, en raison d'une augmentation de la demande liée à la vidéo en ligne, mais aussi de la voix sur IP et le peer to peer. L'émergence du cloud computing et du cloud gaming ainsi que la haute résolution des contenus vidéo tend à accroître encore cette demande de débit. Ainsi les normes de commu- nication évoluent afin de fournir les utilisateurs avec le meilleur débit possible. De ce fait, les systèmes nécessitent d'embarquer des techniques d'accès multiples afin de séparer les utilisateurs et l'augmentation du nombre d'antennes devient indispensable. Par conséquent, ces équipements deviennent de plus en plus complexes et énergivores. Dans le but de réduire la complexité des systèmes et ainsi diminuer leur consommation, en permettant de plus de fonctionner avec de faibles puissances d'émission, le Retournement Temporel apparaît comme une solution envisageable. En effet, cette technique permet de focaliser des ondes électromagnétiques dans le temps et l'espace. Ainsi, grâce à ce procédé il devient possible de réaliser des communications multi-antennes à faible complexité et à faibles interférences entre symboles grâce à la propriété de focalisation temporelle, et à faibles interférences inter-utilisateurs grâce à la propriété de focalisation spatiale. Cependant, afin de l'adapter aux normes de communication actuelles, il est nécessaire d'étudier la combinaison du Retournement Temporel avec les systèmes multi-porteuses pré- sents dans les principales normes de communication par paquets. Le but de cette thèse est donc d'étudier le Retournement Temporel appliqué aux modula- tions multi-porteuses, et plus particulièrement à l'OFDM. Dans un premier temps, la manière de réaliser une telle combinaison est montrée dans un contexte SISO (Single Input Single Out- put). Ensuite, les avantages de synchronisation et de réduction de l'intervalle de garde d'une telle association sont décrits et analysés. Par la suite, une extension aux systèmes MISO (Multiple Input Single Output) est présenté, ainsi que la combinaison avec les codes espace temps en bloc orthogonaux. Les performances de ces systèmes en terme de capacité et de taux d'erreur binaire sont ensuite évaluées analytique- ment et comparées avec des systèmes concurrents. Un algorithme de modulation adaptative est ensuite ajouté au système afin d'en améliorer les performances. Ensuite, la manière de combiner le Retournement Temporel avec un système OQAM est présentée. Il est montré que cette combinaison permet de réaliser simplement des systèmes MISO-OQAM, et d'exploiter la diversité spatiale. Il est également montré ici que la combinai- son avec des codes espace temps en bloc orthogonaux est réalisable. Enfin, la robustesse du système combinant le Retournement Temporel et l'OFDM face aux erreurs d'estimation est évaluée à l'aide de deux algorithmes d'estimation de canal pour les systèmes multi-porteuses.
264

Approches multiéchelles pour la segmentation de très grandes images : application à la quantification de biomarqueurs en histopathologie cancérologique.

Signolle, Nicolas 03 November 2009 (has links) (PDF)
Visualiser et analyser automatiquement des coupes fines de tumeurs cancéreuses sont des enjeux majeurs pour progresser dans la compréhension des mécanismes de la cancérisation et mettre en évidence de nouveaux indicateurs de réponse au traitement. Les nouveaux scanners microscopiques apportent une aide essentielle en fournissant des images couleur haute résolution de la totalité des lames histologiques. Ceci permet de s'affranchir de l'hétérogénéité de distribution des marqueurs à quantifier. La taille de ces images, appelées lames virtuelles, peut atteindre plusieurs GigaOctets. L'objectif de cette thèse est de concevoir et d'implémenter une méthode de segmentation permettant de séparer les différents types de compartiments stromaux présents sur une lame virtuelle de carcinome ovarien. Les deux principales difficultés à surmonter sont la taille des images, qui empêche de les traiter en une seule fois, et le choix de critères permettant de différencier les compartiments stromaux. Pour répondre à ces problèmes, nous avons développé une méthode générique de segmentation multiéchelle qui associe un découpage judicieux de l'image à une caractérisation de chaque compartiment stromal, considéré comme une texture. Cette caractérisation repose sur une modélisation multiéchelle des textures par un modèle d'arbre de Markov caché, appliqué sur les coefficients de la décomposition en ondelettes. Plutôt que de considérer tous les types de compartiments stromaux simultanément, nous avons choisi de transformer le problème multiclasse en un ensemble de problèmes binaires. Nous avons également analysé l'influence d'hyperparamètres (représentation couleur, type d'ondelettes et nombre de niveaux de résolutions intégrés à l'analyse) sur la segmentation, ce qui nous a permis de sélectionner les classifieurs les mieux adaptés. Différentes méthodes de combinaison des décisions des meilleurs classifieurs ont ensuite été étudiées. La méthode a été testée sur une vingtaine de lames virtuelles. Afin d'évaluer les résultats de la segmentation, nous avons mis en œuvre un protocole de tests fondé sur une approche stéréologique. Les résultats sur différents jeux de tests (images synthétiques, images de petite taille, images réelles) sont présentés et commentés. Les résultats obtenus sur les lames virtuelles sont prometteurs, compte tenu de la variabilité des échantillons et de la difficulté, pour un expert, à identifier parfois très précisément un compartiment : environ 60% des points sont correctement classés (entre 35% et 80% selon les lames).
265

Archivage Sécurisé d'Images

Motsch, Jean 27 November 2008 (has links) (PDF)
La multiplication des dispositifs de prise de vues, classiques comme les appareils photographiques, nouveaux comme les imageurs IRM et les analyseurs multispectraux, amène à prendre en charge des volumes de données croissants exponentiellement. En corollaire, la nécessité d'archiver de telles quantités de données introduit des questions nouvelles. Comment gérer des images de très grande taille ? Comment garantir l'intégrité des données enregistrées ? Quel mécanisme utiliser pour lier une image à des données ? Pendant longtemps, l'accent a été mis sur les performances de compression des schémas de codage, avec pour instruments de mesure les courbes débit-distorsion et quelques évaluations subjectives. Des propriétés de scalabilité, de gestion du débit, de résistance aux erreurs sont apparus pour prendre en compte les évolutions des techniques relatives aux media de communication. Cependant, la prise en compte des impératifs liés à l'archivage amène à considérer de nouveaux services, comme la gestion de la copie, l'ajout de métadonnées et la sécurité des images. Dans la plupart des cas, ces services sont fournis en dehors des schémas de compression, à l'exception notable de JPSEC, effort lié à JPEG-2000. L'approche retenue dans cette étude est l'intégration dans un codeur d'images fixes performant, le codeur LAR, des primitives de chiffrement et d'insertion de données permettant d'assurer l'essentiel des services liés à l'archivage des images. Le codeur LAR est hiérarchique, scalable en résolution et qualité, et permet d'aller du codage avec perte vers du codage sans perte. Ses performances sont au-delà de l'état de l'art, particulièrement en très bas débit et en compression sans perte. Le point clef des performances de ce codeur est un partitionnement quadtree adapté au contenu sémantique de l'image. Dans le contexte de l'archivage sécurisé d'images, ce document présente donc le tryptique suivant : compression efficace, chiffrement partiel et insertion de données. Pour la compression, l'utilisation d'une transformée de Hadamard réversible alliée à des filtres non linéaires permet d'obtenir de bonnes performances, avec ou sans pertes. Pour le chiffrement, l'utilisation de la structure hiérarchique du codeur LAR permet de mettre en place un schéma de chiffrement partiel. Il autorise une gestion fine des droits et des clefs, ainsi que le choix dans les niveaux de résolution et qualité possibles. Des éléments permettant une protection à coût nul sont également présentés. Pour l'insertion de données, le parallèle existant entre le LAR-Interleaved S+P et l'extension de la différence permet de mettre en œuvre un schéma efficace.
266

Caratérisation des signaux non-stationnaires à composantes temps-fréquence non-linéaires

Ioana, Cornel 28 November 2012 (has links) (PDF)
L'ensemble des travaux présentés traite le cas des signaux issus des milieux naturels et/ou des milieux incertains, ce qui se traduit par des cas d'analyse complexes. Les solutions d'analyse ne peuvent demeurer que dans le vaste domaine de l'analyse des signaux non-stationnaire et c'est la raison pour laquelle trois grandes classes de méthodes constituent le point de départ : l'analyse temps-fréquence linéaire et bilinéaire, les transformations non-linéaires (les opérateurs warping) et les transformations d'ordre supérieur (modélisation polynomiale de phase). A partir de ces trois piliers, la construction des méthodes de caractérisation parcimonieuse des signaux à composantes temps-fréquence non-linéaires représente l'objectif de base de mes travaux. Ainsi, trois axes de recherche ont été investigués. Le premier axe a été constitué par le tracking des structures temps-fréquence arbitraires en utilisant le regroupement des atomes temps-fréquence par un algorithme de type Viterbi. Le deuxième axe a eu pour objectif la généralisation des opérateurs warping pour des modulations complexes, par forcement inversibles mathématiquement. Enfin, la définition des distributions à temps complexe a constitué le troisième axe. L'ensemble de ces axes a été continué en cherchant à mieux analyser les signaux à structures temps-fréquence non-linéaires. Ainsi, une contribution importante a été constituée par le filtrage temps-fréquence basé sur le warping généalisé qui permet l'extraction des structures temps-fréquence non-linéaires en utilisant des opérateurs de traitement mono-dimensionnels. Cette contribution nous a permis de définir la classe des méthodes de suivi temps-fréquence-phaseen utilisant également des techniques de modélisation polynomiale de phase ainsi que le principe du tracking par la méthode de Viterbi. Cette classe de méthode de suivi temps-fréquence a prouvé son caractère général ainsi que son efficacité dans des applications diverses.
267

Classification et Fusion de Données Actimétriques pour la Télévigilance Médicale : Elaboration et<br />Validation Expérimentale chez la Personne Jeune et Agée

Barralon, Pierre 28 October 2005 (has links) (PDF)
La prise en charge à domicile des personnes âgées rend nécessaire de disposer d'un outil d'évaluation de leurs<br />autonomie. Les travaux effectués proposent une méthode globale évaluant certains critères d'autonomie jusqu'alors<br />évaluées manuellement par un médecin.<br /><br />Nous avons, dans un premier temps, développé des méthodes de détection et classification (postures, transferts,<br />marche) appliquées à des signaux accélérométriques issus d'un système embarqué. Des expérimentations ont permis<br />d'évaluer et valider les différents algorithmes sur des sujets jeunes et âgées.<br /><br />Dans un second temps, l'objectif était de combiner ces informations avec celles recueillies par d'autres capteurs<br />pouvant être présents dans l'appartement de la personne. Une méthode de fusion de données multicapteurs a été<br />élaborée et validée. Elle permet d'évaluer cinq des six critères ADL.
268

CODAGE DES DONNÉES VISUELLES : EFFICACITÉ, ROBUSTESSE, TRANSMISSION

Cagnazzo, Marco 03 September 2013 (has links) (PDF)
Après l'obtention de mon doctorat (2005), mes travaux ont porté initialement sur deux des axes de recherche de la thèse, notamment sur le codage vidéo scalable et sur le codage d'images par ondelettes adaptées à la forme (OAF). J'ai en particulier étudié la mise en place d'un codeur vidéo scalable basé sur la transformée en ondelettes par schémas lifting compensés en mouvement et allocation optimale des ressources de codage. En suite j'ai abordé le problème du critère optimal pour l'estimation de mouvement pour ce type de codeur : des meilleures performances débit-distorsion peuvent être atteintes au prix d'une augmentation de la complexité de l'estimation de mouvement. Par rapport au codage d'images par OAF, j'ai travaillé sur les conditions qui permettent à cette approche d'être compétitif avec les méthodes traditionnelles, et ensuite sur l'utilisation conjointe de la transformée en OAF avec la quantification vectorielle arborescente et avec la transformée de Karhunen-Loéve par classes pour la compression d'images multi-spectrales. J'ai aussi considéré la relation entre distorsion sur les coefficients et distorsion perceptuelle ou non-perceptuelle sur l'image résultante. Ensuite j'ai travaillé sur l'amélioration d'un codeur vidéo standard par une représentation efficace du mouvement : un premier travail, visant une très bonne précision, a abouti à une nouvelle méthode de codage sans pertes basée sur l'information mutuelle ; une deuxième approche utilise la quantification des vecteurs de mouvement, permettant de réduire le débit pour la même qualité. J'ai ensuite travaillé sur le codage vidéo distribué (CVD). Dans le contexte du CVD, la corrélation entre deux images consécutives (ou entre deux vues voisines dans le cas de vidéo multi-vues) est exploité uniquement au décodeur, tandis que les deux images sont codées séparément. Il est alors fondamental que le décodeur soit capable de construire une bonne estimation de l'image manquante : dans ce cas le codeur devra envoyer seulement quelques bits de parité d'un code à correction d'erreurs pour améliorer l'estimation jusqu'à avoir une qualité acceptable. Dans ce cadre, mes travaux ont visé surtout à améliorer l'estimation de l'image manquante, par une description précise du mouvement : un premier axe est basé sur la représentation dense des champs de vecteurs de mouvement ; un deuxième sur la modélisation des trajectoires des objets ; les méthodes basées sur les hash, de raffinement successif et de fusion du mouvement global avec le mouvement local ont également donné des bons résultats. Ces techniques d'estimation peuvent être utilisées dans le cadre du codage par descriptions multiples : les images paires et impaires d'une séquence vidéo sont codées dans deux flux séparés avec un codeur standard, et le décodeur peut reproduire le taux original d'images par seconde même s'il reçoit un seul flux : les techniques de CVD permettent de reconstruire l'image manquante. Le CVD permet également de gérer efficacement le compromis entre degré d'interactivité, occupation d'espace de stockage et besoins de bande passante lors du streaming interactif de vidéos multi-vues. Le CVD de la vidéo 3D comporte des problématiques liées au codage des cartes de profondeur à la détection et la gestion des occlusions, et à la fusion des estimations temporelles et inter-vues. Finalement je me suis aussi occupé de la relation entre qualité de l'estimation de l'image manquante et le débit de codage total associé. Même en dehors du cadre du CVD, la compression vidéo 3D, ou plus précisément, de la vidéo multi-vues (VMV) et de la vidéo multi-vues avec profondeur (MVP) est également un domaine majeur de mon activité de recherche. Je me suis intéressé aux méthodes d'estimation dense de disparité, au codage de cartes de profondeur et au codage par Don't Care Regions (DCR) c'est à dire, en considérant les erreurs sur l'image synthétisé avec la carte de profondeur plutôt que la carte de profondeur elle-même. Le dernier domaine de recherche concerne la distribution de la vidéo sur réseau. Dans le cas de réseau filaire, j'ai travaillé sur une approche network-aware pour la distribution coopérative de vidéo. Dans le cas de réseau sans fils, je me suis intéressé à un protocole cross-layer qui minimise le nombre de message échangé, tout en garantissant à tous les nœuds la réception de la vidéo. Ce protocole a ensuite été amélioré pour prendre en compte les compromis entre distorsion et congestion sur le réseau. Ce protocole peut être utilisé conjointement au codage réseau pour maximiser le throughput du réseau et pour améliorer la robustesse de la communication. Les techniques de codage réseau peuvent également être utilisées avec le codage à descriptions multiples pour ultérieurement améliorer la robustesse, et avec le codage de la vidéo multi-vues pour optimiser (en sens débit-distorsion) la planification d'envoi des paquets vidéo.
269

Construction et analyse de transformées discrètes en ondelettes : spécificité de l'image et de la couleur

Carré, Philippe 17 November 2011 (has links) (PDF)
La problématique centrale de mes travaux est l'étude de méthodes de décomposition discrète Temps-échelle. Ils s'inscrivent pleinement dans l'équipe projet ICONES, dont j'assure l'animation. Dans ce cadre, je me suis concentré, dès mon intégration dans le laboratoire sur les décompositions atomiques discrètes reconstructibles définies dans le domaine général des ondelettes. Toutes ces méthodes possèdent maintenant un cadre général et notamment la transformée en ondelettes standard. Cependant, il existe encore certaines limites : construction d'une représentation efficace d'éléments géométriques 2-D de l'image, généralisation de ces transformées à des signaux à valeurs vectorielles reste. L'objectif recherché est donc une représentation liée à une structure de données sous forme de primitives, facilement calculable par un algorithme, telle que l'ensemble de ces primitives permettent la reconstruction de la donnée d'origine. Il faut par ailleurs que l'on puisse ordonner ces primitives et que l'on puisse donner un sens à ces primitives. Dans ce cadre, mon travail va se découper suivant trois axes de recherche et un axe applicatif fort. Approche géométrique. Nous avons étudié un outil qui permet la représentation d'images d'une manière optimale (au sens des ruptures linéaires) : la transformée Ridgelet. Grâce à une collaboration avec les chercheurs en géométrie discrète du département XLIM-SIC nous avons proposé une transformée Ridgelet/Curvelets paramétrable, rapide et inversible, obtenant des résultats en termes de restauration de données 2-D très satisfaisants, notamment en vidéo. De plus, la simplicité et la rigueur dans la définition apportée par la géométrie discrète nous a permis d'étendre ce travail à toute dimension. Suivant ce même but, à savoir capter la géométrie pour adapter la transformée, nous avons proposé dans le cadre d'un partenariat avec OrangeLab une représentation en ondelettes géodésiques qui se propose d'introduire une modélisation de la topologie dans un schéma numérique de calcul du type Lifting Scheme. Il s'appuie sur la construction d'un graphe qui doit capter l'organisation structurelle de l'image à traiter. De ce graphe, une distance entre chaque pixel de l'image est estimée et introduite dans l'algorithme de décomposition. Couleur et MultiCanaux. L'objet de ce second axe a été d'examiner des approches plus globales pour l'extension des briques élémentaires issues du signal dans le cadre des images couleur. Suivant cette idée, j'ai débuté dès 2001 une étude concernant l'utilisation des quaternions. Cette recherche a concerné la redéfinition des traitements classiques couleur en termes quaternionique, comme le filtrage, la modification des caractéristiques couleur ... Ceci a fait l'objet d'une thèse, notamment à travers la redéfinition des manipulations couleur avec un formalisme lié à l'algèbre géométrique. Approche orientée. Le simple découpage horizontal, vertical et selon les deux diagonales, lié à l'approche classique, n'est pas suffisant à la fois en termes de description du signal mais aussi par rapport à ce que l'on connait du système visuel humain. L'objectif est de définir une représentation associée à des directions d'analyse plus adaptatives, invariante soit à la translation soit à la rotation. La transformée en ondelettes complexes suivant l'arbre dual constitue une réponse possible. A partir de ces travaux, nous étudions une approche alternative reposant sur les travaux de Bulow et al. et Choi et al. sur le signal analytique 2-D à partir des nombres quaternioniques. Ce travail permet de mettre en place une transformée en ondelettes quaternioniques pour la compression et la classification introduisant une nouvelle information : une notion de phase. La généralisation de ce travail nous mène à la définition d'ondelettes monogéniques qui peuvent être considérées en termes signalistique, comme les décompositions les plus abouties. Cependant de nombreuses questions restent ouvertes, et la première d'entre-elles étant la définition d'un schéma numérique stable. Sécurité. Depuis plusieurs années maintenant, j'ai développé un travail sur la protection électronique des images et vidéo, qui a donné lieu à 2 brevets sur le tatouage basé ondelettes, et intégrant des données psychovisuelles de perception des couleurs. Ces travaux se sont maintenant poursuivis dans le cadre d'une collaboration avec le département DMI de XLIM. L'objectif visé est l'intégration des différentes familles de codes correcteurs d'erreur afin d'améliorer la robustesse d'une stratégie de tatouage. Les résultats montrent effectivement une amélioration de la robustesse de l'algorithme breveté. Nous poursuivons ce travail sous un angle un peu différent à travers la définition d'algorithme de stétaganalyse en utilisant les compétences de l'équipe Icones autour des métriques de qualité.
270

Construction des espaces de représentation RPA pour l'analyse des signaux transitoires

Birleanu, Florin-Marian 25 September 2012 (has links) (PDF)
Même s'ils n'appartiennent pas a une classe de signaux bien définie, les signaux transitoires se retrouvent dans plusieurs domaines pratiques très différents (comme les signaux médicaux et les signaux utilisés dans des systèmes de télécommunications), donc le développement des outils robustes et efficients pour faire leur analyse est un objectif important dans le traitement du signal. En particulier, cette thèse s'est concentrée surtout sur la résolution de quelques problèmes de traitement du signal posés par l'investigation ultrasonore de l'eau dans des conduites. Cependant, ce contexte applicatif a été utilisé seulement comme une base pour développer des outils génériques qui peuvent trouver leur utilité dans plusieurs d'autres applications. La thèse a abordé la question du traitement des signaux (transitoires) du point de vue du concept de récurrence dans l'espace des phases, qui est emprunté de la théorie des systèmes dynamiques. Nous avons montré que l'analyse du diagramme des recurrences (RPA) apporte dans le traitement du signal deux concepts importants : l'échantillon vectoriel, et la récurrence. L'utilisation de ces concepts nous a permis de généraliser et d'étendre des outils de traitement du signal bien connus, et aussi de construire des représentations de signal qui se sont révélées utiles dans des différentes tâches liées à la détection et à la caractérisation des transitoires. Essentiellement, dans cette thèse nous avons montré que la RPA peut être vue comme un cadre générique qui unifie dans une formulation commune des diverses outils bien connus dans le traitement du signal. En plus, elle généralise ces outils (à l'aide du concept des échantillons vectoriels) et les étend (en utilisant le concept de récurrence).

Page generated in 0.097 seconds