• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2776
  • 908
  • 407
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4150
  • 1301
  • 980
  • 903
  • 735
  • 732
  • 700
  • 633
  • 598
  • 578
  • 504
  • 393
  • 386
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1711

CODAGE DES DONNÉES VISUELLES : EFFICACITÉ, ROBUSTESSE, TRANSMISSION

Cagnazzo, Marco 03 September 2013 (has links) (PDF)
Après l'obtention de mon doctorat (2005), mes travaux ont porté initialement sur deux des axes de recherche de la thèse, notamment sur le codage vidéo scalable et sur le codage d'images par ondelettes adaptées à la forme (OAF). J'ai en particulier étudié la mise en place d'un codeur vidéo scalable basé sur la transformée en ondelettes par schémas lifting compensés en mouvement et allocation optimale des ressources de codage. En suite j'ai abordé le problème du critère optimal pour l'estimation de mouvement pour ce type de codeur : des meilleures performances débit-distorsion peuvent être atteintes au prix d'une augmentation de la complexité de l'estimation de mouvement. Par rapport au codage d'images par OAF, j'ai travaillé sur les conditions qui permettent à cette approche d'être compétitif avec les méthodes traditionnelles, et ensuite sur l'utilisation conjointe de la transformée en OAF avec la quantification vectorielle arborescente et avec la transformée de Karhunen-Loéve par classes pour la compression d'images multi-spectrales. J'ai aussi considéré la relation entre distorsion sur les coefficients et distorsion perceptuelle ou non-perceptuelle sur l'image résultante. Ensuite j'ai travaillé sur l'amélioration d'un codeur vidéo standard par une représentation efficace du mouvement : un premier travail, visant une très bonne précision, a abouti à une nouvelle méthode de codage sans pertes basée sur l'information mutuelle ; une deuxième approche utilise la quantification des vecteurs de mouvement, permettant de réduire le débit pour la même qualité. J'ai ensuite travaillé sur le codage vidéo distribué (CVD). Dans le contexte du CVD, la corrélation entre deux images consécutives (ou entre deux vues voisines dans le cas de vidéo multi-vues) est exploité uniquement au décodeur, tandis que les deux images sont codées séparément. Il est alors fondamental que le décodeur soit capable de construire une bonne estimation de l'image manquante : dans ce cas le codeur devra envoyer seulement quelques bits de parité d'un code à correction d'erreurs pour améliorer l'estimation jusqu'à avoir une qualité acceptable. Dans ce cadre, mes travaux ont visé surtout à améliorer l'estimation de l'image manquante, par une description précise du mouvement : un premier axe est basé sur la représentation dense des champs de vecteurs de mouvement ; un deuxième sur la modélisation des trajectoires des objets ; les méthodes basées sur les hash, de raffinement successif et de fusion du mouvement global avec le mouvement local ont également donné des bons résultats. Ces techniques d'estimation peuvent être utilisées dans le cadre du codage par descriptions multiples : les images paires et impaires d'une séquence vidéo sont codées dans deux flux séparés avec un codeur standard, et le décodeur peut reproduire le taux original d'images par seconde même s'il reçoit un seul flux : les techniques de CVD permettent de reconstruire l'image manquante. Le CVD permet également de gérer efficacement le compromis entre degré d'interactivité, occupation d'espace de stockage et besoins de bande passante lors du streaming interactif de vidéos multi-vues. Le CVD de la vidéo 3D comporte des problématiques liées au codage des cartes de profondeur à la détection et la gestion des occlusions, et à la fusion des estimations temporelles et inter-vues. Finalement je me suis aussi occupé de la relation entre qualité de l'estimation de l'image manquante et le débit de codage total associé. Même en dehors du cadre du CVD, la compression vidéo 3D, ou plus précisément, de la vidéo multi-vues (VMV) et de la vidéo multi-vues avec profondeur (MVP) est également un domaine majeur de mon activité de recherche. Je me suis intéressé aux méthodes d'estimation dense de disparité, au codage de cartes de profondeur et au codage par Don't Care Regions (DCR) c'est à dire, en considérant les erreurs sur l'image synthétisé avec la carte de profondeur plutôt que la carte de profondeur elle-même. Le dernier domaine de recherche concerne la distribution de la vidéo sur réseau. Dans le cas de réseau filaire, j'ai travaillé sur une approche network-aware pour la distribution coopérative de vidéo. Dans le cas de réseau sans fils, je me suis intéressé à un protocole cross-layer qui minimise le nombre de message échangé, tout en garantissant à tous les nœuds la réception de la vidéo. Ce protocole a ensuite été amélioré pour prendre en compte les compromis entre distorsion et congestion sur le réseau. Ce protocole peut être utilisé conjointement au codage réseau pour maximiser le throughput du réseau et pour améliorer la robustesse de la communication. Les techniques de codage réseau peuvent également être utilisées avec le codage à descriptions multiples pour ultérieurement améliorer la robustesse, et avec le codage de la vidéo multi-vues pour optimiser (en sens débit-distorsion) la planification d'envoi des paquets vidéo.
1712

Construction et analyse de transformées discrètes en ondelettes : spécificité de l'image et de la couleur

Carré, Philippe 17 November 2011 (has links) (PDF)
La problématique centrale de mes travaux est l'étude de méthodes de décomposition discrète Temps-échelle. Ils s'inscrivent pleinement dans l'équipe projet ICONES, dont j'assure l'animation. Dans ce cadre, je me suis concentré, dès mon intégration dans le laboratoire sur les décompositions atomiques discrètes reconstructibles définies dans le domaine général des ondelettes. Toutes ces méthodes possèdent maintenant un cadre général et notamment la transformée en ondelettes standard. Cependant, il existe encore certaines limites : construction d'une représentation efficace d'éléments géométriques 2-D de l'image, généralisation de ces transformées à des signaux à valeurs vectorielles reste. L'objectif recherché est donc une représentation liée à une structure de données sous forme de primitives, facilement calculable par un algorithme, telle que l'ensemble de ces primitives permettent la reconstruction de la donnée d'origine. Il faut par ailleurs que l'on puisse ordonner ces primitives et que l'on puisse donner un sens à ces primitives. Dans ce cadre, mon travail va se découper suivant trois axes de recherche et un axe applicatif fort. Approche géométrique. Nous avons étudié un outil qui permet la représentation d'images d'une manière optimale (au sens des ruptures linéaires) : la transformée Ridgelet. Grâce à une collaboration avec les chercheurs en géométrie discrète du département XLIM-SIC nous avons proposé une transformée Ridgelet/Curvelets paramétrable, rapide et inversible, obtenant des résultats en termes de restauration de données 2-D très satisfaisants, notamment en vidéo. De plus, la simplicité et la rigueur dans la définition apportée par la géométrie discrète nous a permis d'étendre ce travail à toute dimension. Suivant ce même but, à savoir capter la géométrie pour adapter la transformée, nous avons proposé dans le cadre d'un partenariat avec OrangeLab une représentation en ondelettes géodésiques qui se propose d'introduire une modélisation de la topologie dans un schéma numérique de calcul du type Lifting Scheme. Il s'appuie sur la construction d'un graphe qui doit capter l'organisation structurelle de l'image à traiter. De ce graphe, une distance entre chaque pixel de l'image est estimée et introduite dans l'algorithme de décomposition. Couleur et MultiCanaux. L'objet de ce second axe a été d'examiner des approches plus globales pour l'extension des briques élémentaires issues du signal dans le cadre des images couleur. Suivant cette idée, j'ai débuté dès 2001 une étude concernant l'utilisation des quaternions. Cette recherche a concerné la redéfinition des traitements classiques couleur en termes quaternionique, comme le filtrage, la modification des caractéristiques couleur ... Ceci a fait l'objet d'une thèse, notamment à travers la redéfinition des manipulations couleur avec un formalisme lié à l'algèbre géométrique. Approche orientée. Le simple découpage horizontal, vertical et selon les deux diagonales, lié à l'approche classique, n'est pas suffisant à la fois en termes de description du signal mais aussi par rapport à ce que l'on connait du système visuel humain. L'objectif est de définir une représentation associée à des directions d'analyse plus adaptatives, invariante soit à la translation soit à la rotation. La transformée en ondelettes complexes suivant l'arbre dual constitue une réponse possible. A partir de ces travaux, nous étudions une approche alternative reposant sur les travaux de Bulow et al. et Choi et al. sur le signal analytique 2-D à partir des nombres quaternioniques. Ce travail permet de mettre en place une transformée en ondelettes quaternioniques pour la compression et la classification introduisant une nouvelle information : une notion de phase. La généralisation de ce travail nous mène à la définition d'ondelettes monogéniques qui peuvent être considérées en termes signalistique, comme les décompositions les plus abouties. Cependant de nombreuses questions restent ouvertes, et la première d'entre-elles étant la définition d'un schéma numérique stable. Sécurité. Depuis plusieurs années maintenant, j'ai développé un travail sur la protection électronique des images et vidéo, qui a donné lieu à 2 brevets sur le tatouage basé ondelettes, et intégrant des données psychovisuelles de perception des couleurs. Ces travaux se sont maintenant poursuivis dans le cadre d'une collaboration avec le département DMI de XLIM. L'objectif visé est l'intégration des différentes familles de codes correcteurs d'erreur afin d'améliorer la robustesse d'une stratégie de tatouage. Les résultats montrent effectivement une amélioration de la robustesse de l'algorithme breveté. Nous poursuivons ce travail sous un angle un peu différent à travers la définition d'algorithme de stétaganalyse en utilisant les compétences de l'équipe Icones autour des métriques de qualité.
1713

Construction des espaces de représentation RPA pour l'analyse des signaux transitoires

Birleanu, Florin-Marian 25 September 2012 (has links) (PDF)
Même s'ils n'appartiennent pas a une classe de signaux bien définie, les signaux transitoires se retrouvent dans plusieurs domaines pratiques très différents (comme les signaux médicaux et les signaux utilisés dans des systèmes de télécommunications), donc le développement des outils robustes et efficients pour faire leur analyse est un objectif important dans le traitement du signal. En particulier, cette thèse s'est concentrée surtout sur la résolution de quelques problèmes de traitement du signal posés par l'investigation ultrasonore de l'eau dans des conduites. Cependant, ce contexte applicatif a été utilisé seulement comme une base pour développer des outils génériques qui peuvent trouver leur utilité dans plusieurs d'autres applications. La thèse a abordé la question du traitement des signaux (transitoires) du point de vue du concept de récurrence dans l'espace des phases, qui est emprunté de la théorie des systèmes dynamiques. Nous avons montré que l'analyse du diagramme des recurrences (RPA) apporte dans le traitement du signal deux concepts importants : l'échantillon vectoriel, et la récurrence. L'utilisation de ces concepts nous a permis de généraliser et d'étendre des outils de traitement du signal bien connus, et aussi de construire des représentations de signal qui se sont révélées utiles dans des différentes tâches liées à la détection et à la caractérisation des transitoires. Essentiellement, dans cette thèse nous avons montré que la RPA peut être vue comme un cadre générique qui unifie dans une formulation commune des diverses outils bien connus dans le traitement du signal. En plus, elle généralise ces outils (à l'aide du concept des échantillons vectoriels) et les étend (en utilisant le concept de récurrence).
1714

Contribution à l'analyse statistique des mesures en chambre réverbérante à brassage de modes. Applications à la détermination de l'efficacité de brassage et de l'incertitude de mesure dans un contexte CEM et radiofréquences

Lemoine, Christophe 16 July 2008 (has links) (PDF)
L'objectif de cette thèse est d'étudier le comportement statistique des relevés de mesures en chambre réverbérante à brassage de modes (CRBM). Dans un premier temps, nous nous intéressons aux lois de distribution des mesures de champ et de puissance, relevées au sein du volume utile, dans la situation d'une cavité sur-dimensionnée. Sur une base expérimentale, nous mettons en évidence des écarts significatifs entre le modèle de cavité idéale et la distribution réelle des mesures, en fonction de la dimension du récepteur. Cette première phase s'appuie sur des outils statistiques particulièrement bien adaptés aux lois de distribution que l'on étudie.<br />Dans un second temps, nous développons un modèle d'estimation de l'efficacité de brassage, mécanique et électronique, simple à mettre en oeuvre, et permettant une meilleure exploitation du brassage des modes. La démarche normative actuelle s'avère très insuffisante pour déterminer le nombre d'échantillons indépendants dont on dispose réellement. Notre méthode s'appuie sur des concepts statistiques largement adoptés dans d'autres disciplines telles que la finance, la climatologie, etc. De nombreuses expérimentations viennent valider la démarche que nous proposons.<br />Dans un troisième temps, nous présentons quelques applications des résultats de cette thèse dans un contexte CEM (compatibilité électromagnétique) et radiofréquences. Les résultats issus de cette thèse permettent notamment d'adapter et optimiser les protocoles d'essais répondant aux exigences de l'utilisateur en terme d'incertitude de mesure pour de multiples applications. Nous montrons par exemple que le gabarit normatif de calibrage d'une CRBM peut évoluer vers un gabarit plus réaliste. Par ailleurs, que ce soit pour la caractérisation d'antennes (efficacité, gain de diversité, etc.) ou la simulation de canaux de propagation réels, une meilleure maîtrise des lois de distribution et de l'indépendance des mesures apporte une précision accrue de l'essai.
1715

Contribution à l'étude de l'opérateur commun FFT dans le contexte de la Radio logicielle : application au codage de canal

Al Ghouwayel, Ali 27 May 2008 (has links) (PDF)
L'aspect de la radio logicielle et plus précisément celui de la paramétrisation sous l'approche opérateur commun est traité dans cette thèse. Dans ce contexte, l'étude des codes cycliques en particulier les codes de Reed-Solomon (RS) est considérée. Dans l'optique d'impliquer l'opérateur FFT, utilisé dans différentes fonctions comme la fonction de filtrage, la (dé)modulation OFDM dans le codage et décodage RS, nous avons ressorti une classe spécifique des codes RS définie dans le corps de Galois CG(Ft). Nous avons ensuite proposé un opérateur FFT reconfigurable (DMFFT) capable de réaliser deux fonctionnalités : FNT pour le décodage RS et la FFT classique. L'opérateur DMFFT est implémenté sur des composants FPGA et comparé à l'approche Velcro qui consiste à implémenter séparément les deux opérateurs FFT et FNT. Cette implémentation a montré que l'approche reconfigurable permet d'obtenir une économie en mémoire environ 25 % et une réduction de complexité environ 18 %. Dans le but de traiter les codes RS classiques utilisés dans les standards actuels, nous avons proposé deux scénari permettant de réaliser d'une façon optimale un opérateur tri mode (TMFFT) qui est capable de réaliser, en plus de deux fonctionnalités de l'opérateur DMFFT, la transformée de Fourier dans les corps finis CG(2m).
1716

Contribution à l'étude d'antennes discrètes pour porteurs métalliques. Application à l'automobile du concept "Car-antenna"

Niang, Demba 05 November 2010 (has links) (PDF)
Les travaux présentés dans cette thèse concernent une étude d'antennes large bande pour application automobile. L'objectif est de proposer des antennes discrètes et efficaces. Pour cela, après une étude d'antériorité, notre choix s'est porté sur le concept car-antenna qui consiste à utiliser la structure du véhicule comme élément rayonnant. Dans un premier temps, ce principe est appliqué à des structures métalliques simples telles qu'un parallélépipède ou une représentation simplifiée d'un véhicule de type Citroën C2 à l'échelle 1/2 avant d'être appliqué à des véhicules réels principalement dans la bande FM. Les impédances ainsi que les diagrammes de rayonnement théoriques et mesurés des structures ont montré qu'une amplification raisonnable du car-antenna permet d'approcher les performances de l'antenne fouet FM de référence. Nous avons observé que le diagramme de rayonnement du car-antenna s'oriente en fonction de la localisation du point excitateur. Dans la dernière partie, cette propriété est exploitée pour faire de la diversité de diagramme. Les calculs et les mesures faits dans ce sens ont montré que grâce à cette méthode, le besoin de l'amplification peut être largement revu à la baisse.
1717

Contribution à l'Étude des Techniques Hybrides de Localisation dans les Réseaux Sans-fil Hétérogènes

Laaraiedh, Mohamed 15 December 2010 (has links) (PDF)
Les avancements récents dans les technologies sans fil ont vu l'émergence de techniques de localisation qui constitue une base utile et rentable pour offrir des nouveaux services. Ces services topo-dépendants ont été de plus en plus bénéfiques pour les opérateurs et les entreprises de télécommunications. Divers services topo-dépendants peuvent être offerts 'a l'utilisateur tels que le suivi, la publicité, la sécurité, et la gestion. Les réseaux sans fil eux-mêmes peuvent bénéficier de l'information de localisation pour améliorer les performances de leurs différentes couches. Le routage, la synchronisation et l'annulation d'interférences sont quelques exemples o'u l'information de localisation peut être fructueuse. Un système de localisation doit être capable d'exécuter deux tâches principales : la mesure des paramètres topo-dépendants (RSSI, TOA, et TDOA) et l'estimation de la position en utilisant des estimateurs appropriés. L'objectif principal de cette thèse est l'étude de différentes techniques d'estimation de la position: algébriques et géométriques. Les techniques algébriques étudiées sont les moindres carrés, le maximum de vraisemblance, et la programmation semi-définie. La technique géométrique RGPA proposée est basée sur l'analyse par intervalles et la représentation géométrique des paramètres topo-dépendants. L'accent est mis sur la fusion de différents paramètres topo-dépendants et son influence sur la précision de positionnement. L'estimation et la mesure des paramètres topo-dépendants sont également étudiées en utilisant une campagne de mesures ULB afin d'avoir une compréhension complète du domaine de localisation.
1718

Contributions à l'estimation de canal mutli-trajets dans un contexte de modulation OFDM

Savaux, Vincent 29 November 2013 (has links) (PDF)
Dans les systèmes de communications sans fil, le canal de transmission entre les antennes d'émission et de réception est l'une des principales sources de perturbation pour le signal. Les modulations multiporteuses, telles que l'OFDM (pour orthogonal frequency division multiplexing), sont très robustes contre l'effet des multi-trajets, et permet de retrouver le signal émis avec un faible taux d'erreur, quand elles sont combinées avec un codage canal. L'estimation de canal joue alors un rôle clé dans les performances des systèmes de communications. Dans cette thèse, on étudie des techniques fondées sur les estimateurs LS (pour least square, ou moindres carrés) et MMSE (pour minimum mean square error, ou erreur quadratique moyenne minimum). La technique MMSE est optimale, mais est beaucoup plus complexe que LS, et nécessite la connaissance a priori des moments de second ordre du canal et du bruit. Dans cette présentation, deux méthodes permettant d'atteindre des performances proches de LMMSE en évitant ses inconvénients sont étudiées. Une troisième partie étudie quant à elle les erreurs d'estimation dues aux interpolations.
1719

Contributions au traitement des signaux à valeurs sur des structures algébriques non-commutatives

Le Bihan, Nicolas 20 June 2011 (has links) (PDF)
Les travaux présentés s'intéressent au traitement des signaux à valeurs sur des espaces non-commutatifs, en particulier sur le groupe des rotations et les quaternions. Principalement, ce sont les signaux et processus aléatoires qui sont au centre de nos préoccupations, et nous présentons quelques résultats illustrant leur intérêt en physique des ondes polarisées. Nous montrons par exemple comment les processus aléatoires sur le groupe des rotations permettent d'étudier la diffusion multiple des ondes dans les milieux aléatoires et l'apparition de la phase géométrique pour les ondes polarisées dans ces milieux. Les résultats obtenus sont basés sur des notions empruntées à la théorie des groupes et de la représentation, la théorie des processus aléatoires et de l'estimation ainsi qu'à la géométrie différentielle. L'application majeure des résultats présentés est l'étude des ondes élastiques dans les milieux aléatoires.
1720

Déconvolution et séparation d'images hyperspectrales en microscopie

Henrot, Simon 27 November 2013 (has links) (PDF)
L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, de manière à reconstituer le spectre des pixels. Cette technique est utilisée en microscopie pour extraire des informations spectrales sur les spécimens observés. L'analyse de telles données est bien souvent difficile : lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par l'instrument (flou ou convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. On parle ainsi de problème inverse, par opposition au problème direct consistant à modéliser la dégradation de l'image observée, étudié dans la première partie de la thèse. Un autre problème inverse important en imagerie consiste à extraire les signatures spectrales des composants purs de l'image ou sources et à estimer les contributions fractionnaires de chaque source à l'image. Cette procédure est qualifiée de séparation de sources, accomplie sous contrainte de positivité des sources et des mélanges. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème de déconvolution est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. Cette méthode générique est adaptée à la prise en compte de différents a priori sur la solution, tels que la positivité de l'image ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie de la thèse est axée sur la problématique de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation instrumental avec le modèle de mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en microscopie confocale Raman.

Page generated in 0.0974 seconds