• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Codage Conjoint Source-Canal des Sources Vidéo

Feideropoulou, Georgia 04 April 2005 (has links) (PDF)
L'objet de cette thèse est de proposer un codage conjoint source-canal de séquences vidéo pour la transmission sur des canaux sans fil. Le système de codage conjoint source-canal est fondée sur un quantificateur vectoriel structuré et une assignation linéaire d'étiquette qui minimisent simultanément la distorsion canal et la distorsion source. Le quantificateur vectoriel qui est construit à partir de constellations provenant de réseaux de points, lesquels satisfont la propriété de diversité maximale, minimise la distorsion source d'une source gaussienne. La distorsion canal est également minimisée par l'étiquetage linéaire. Nous avons étudié les dépendances entre les coefficients d'ondelettes provenant d'une décomposition t+2D, avec ou sans estimation de mouvement afin d'étendre le schéma du codage conjoint source-canal, développé pour les sources gaussiennes, dans le domaine vidéo où la distribution des coefficients est loin d'être gaussienne. Nous proposons un modèle doublement stochastique afin de capturer ces dépendances et nous l'appliquons à la protection des erreurs pour prédire les coefficients perdus et améliorer ainsi la qualité de vidéo. Dans le cas d'un canal gaussien, nous développons deux systèmes, un avec un étiquetage linéaire non codé et l'autre avec un étiquetage linéaire codé utilisant des codes de Reed-Muller. Nous comparons ces deux schémas de codage avec un schéma non-structuré dont l'étiquetage est adapté au canal et avec un coder vidéo scalable. Dans le cas d'un canal de Rayleigh non-sélectif à évanouissements indépendants le schéma devient robuste lorsque nous utilisons une matrice de rotation avant la transmission sur le canal.
62

Ondelettes et décompositions spatio-temporelles avancées; application au codage vidéo scalable

Pau, Grégoire 15 May 2006 (has links) (PDF)
Les progrès récents sur les schémas de codage vidéo par ondelettes ont permis l'apparition d'une nouvelle génération de codeurs vidéos scalables t+2D dont l'efficacité est comparable à celle des meilleurs codecs hybrides. Ces schémas reposent sur l'utilisation d'une transformée en ondelettes appliquée le long du mouvement des images afin d'exploiter leur redondance temporelle, suivie d'une décomposition spatiale des sous-bandes résultantes et d'un codage entropique. L'objectif de cette thèse consiste en l'étude et la construction de nouvelles transformées scalables mises en jeu dans le schéma de codage vidéo t+2D, afin d'en améliorer l'efficacité de codage. L'utilisation du formalisme lifting lors de la construction de ces transformées spatio-temporelles permet l'introduction d'opérateurs non-linéaires, particulièrement utiles pour représenter efficacement les singularités et discontinuités présentes dans une séquence vidéo. Dans un premier temps, nous nous intéressons à l'optimisation et la construction de nouvelles transformées temporelles compensées en mouvement, afin d'améliorer leur performance de décorrelation. Nous étudions alors la construction de filtres M-bandes pour décomposer spatialement les sous-bande temporelles et nous montrons comment les propriétés de scalabilité des bancs de synthèse M-bandes peuvent être étendues à des facteurs rationnels quelconques. Enfin, nous décrivons comment mettre en oeuvre des décompositions spatiales en ondelettes adaptatives, non-linéaires et inversibles, sans nécessiter la transmission d'une carte de décisions.
63

Détection automatique des opacités en tomosynthèse numérique du sein

Palma, Giovanni 23 February 2010 (has links) (PDF)
La tomosynthèse numérique du sein est une nouvelle technique d'imagerie 3D qui peut potentiellement pallier certaines limitations de la mammographie standard comme la superposition de tissus. Ces améliorations se font au prix d'une plus grande quantité de données à examiner pour le radiologue. Dans ce contexte, l'élaboration d'un outil de détection automatique de signes radiologiques suspects, pour permettre au praticien de conserver un temps de lecture acceptable avec une haute sensibilité, prend tout son sens. Dans ce type d'imagerie, les cancers peuvent se traduire par plusieurs types de signes radiologiques: les amas de microcalcifications, les masses et les distorsions architecturales. Nos travaux se sont focalisés sur la détection des masses et des distorsions architecturales, tâche particulièrement difficile compte tenu de la grande variabilité morphologique de ces signes radiologiques et de leur contraste qui peut être particulièrement faible. Pour détecter les masses, nous proposons un cadre théorique fort visant à étendre les filtres connexes dans le formalisme des ensembles flous. Les distorsions architecturales sont quant à elles traitées grâce à l'adaptation du modèle a contrario pour détecter des signes de convergences qui sont hautement suspects en tomosynthèse. Ces différents outils sont finalement combinés pour l'élaboration d'une chaîne de détection de signes radiologique et une comparaison avec l'état de l'art des performances obtenues est présentée.
64

Characterization and Modeling of the Channel and Noise for Indoor MIMO PLC Networks

HASHMAT, Rehan 21 June 2012 (has links) (PDF)
Power Line Communication (PLC) technology provides the omnipresence of high speed data services without requiring the installation of new infrastructure. The existing household electrical wiring which is used to deliver the electrical energy to the house is utilized by the PLC technology as a transmission channel. The data rates of several hundreds of Mbps are realized by the PLC technology. In most developed countries the cable used for household electrical wiring consists of three wires: Phase (P), Neutral (N) and Protective Earth (PE). The existing PLC systems use the P-N port to transmit and receive the signals. It is a typical single input single output (SISO) transmission. The inclusion of the PE wire at transmit and receive outlets leads to the availability of multiple transmit/receive ports which in turn leads to the realization of a MIMO communication channel. The principle objective of this thesis is to study and explore the inhome PLC channels in the MIMO context. The main objectives of the thesis are categorized as the following: ¿ Development of a channel sounding protocol to perform extensive channel and noise measurements on the inhome PLC networks, with the objective of generating a rich and realistic database. Evaluation of the MIMO PLC channel capacity by utilizing the database obtained from the measurements. ¿ Characterization and modeling of the inhome MIMO PLC channel through a set of parameter by utilizing the measured channel data. Evaluation of the performance of the channel model by comparing the simulated channels parameters with the measured ones. ¿ Characterization and modeling of the MIMO power line noise through various parameters by utilizing the measured noise data. Evaluation of the performance of the noise model by comparing the simulated noise characteristics with the measured noise.
65

Developing fast machine learning techniques with applications to steganalysis problems

Miche, Yoan 02 November 2010 (has links) (PDF)
Depuis que les Hommes communiquent, le besoin de dissimuler tout ou partie de la communication existe. On peut citer au moins deux formes de dissimulation d'un message au sein d'une communication: Dans le premier cas, le message à envoyer peut lui même être modifié, de telle sorte que seul le destinataire puisse le décoder. La cryptographie s'emploie par exemple à cette tâche. Une autre forme est celle de la stéganographie, qui vise à dissimuler le message au sein d'un document. Et de même que pour la cryptographie dont le pendant est la cryptanalyse visant à décrypter le message, la stéganalyse est à l'opposé de la stéganographie et se charge de détecter l'existence d'un message. Le terme de stéganalyse peut également désigner l'importante classe de problèmes liés à la détection de l'existence du message mais aussi à l'estimation de sa taille (stéganalyse quantitative) ou encore de son contenu. Dans cette thèse, l'accent est tout d'abord mis sur le problème classique de stéganalyse (détection de la présence du message). Une méthodologie permettant d'obtenir des résultats statistiquement fiables dans ce contexte est proposée. Il sagit tout d'abord d'estimer le nombre d'échantillons (ici des images) suffisant à l'obtention de résultats pertinents, puis de réduire la dimensionalité du problème par une approche basée sur la sélection de variables. Dans le contexte de la stéganalyse, la plupart des variables obtenues peuvent être interprétées physiquement, ce qui permet une interprétation de la sélection de variables obtenue: les variables sélectionnées en premier réagissent vraisemblablement de façon importante aux changements causés par la présence du message. Leur analyse peut permettre de comprendre le fonctionnement et les faiblesses de l'algorithme de stéganographie utilisé, par exemple. Cette méthodologie peut s'avérer complexe en termes de calculs et donc nécessiter des temps d'éxecution importants. Pour pallier à ce problème, un nouveau modèle pour le "Machine Learning" est proposé, l'OP-ELM. L'OPELM est constitué d'un Réseau de Neurones au sein duquel des projections aléatoires sont utilisées. Les neurones sont ensuite classés par pertinence vis à vis du problème, et seuls les plus pertinents sont conservés. Cette structure de modèle parvient à obtenir des performances similaires à celles de l'état de l'art dans le domaine du "Machine Learning". Enfin, le modèle OP-ELM est utilisé dans le cadre de la stéganalyse quantitative, cette fois (l'estimation de la taille du message). Une approche nouvelle sur ce problème est utilisée, faisant appel à une technique de ré-insertion d'un message au sein d'une image considérée comme suspecte. En répétant ce processus de ré-insertion un certain nombre de fois, et pour des messages connus de tailles différentes, il est possible d'estimer la taille du message original utilisé par l'expéditeur. De plus, par l'utilisation de la largeur de l'intervalle de confiance obtenu sur la taille du message original, une mesure de la difficulté intrinsèque à l'image est présentée. Ceci permet d'estimer la fiabilité de la prédiction obtenue pour la taille du message original.
66

Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG

Salido-Ruiz, Ricardo-Antonio 22 June 2012 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référencemoyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe.
67

Tomographie ultrasonore dédiée à l'imagerie du sein - Validation expérimentale du projet ANAÏS

Rouyer, Julien 15 February 2012 (has links) (PDF)
La tomographie ultrasonore assistée par ordinateur possède un fort potentiel en tant que moyen d'inspection des tissus mammaires pour le dépistage du cancer du sein ; cette technique permet de réduire la dépendance à l'opérateur constatée avec l'échographie conventionnelle. Une antenne de transducteurs (3 MHz) à géométrie semi-circulaire conformée à l'anatomie du sein a été développée pour réaliser une imagerie de réfl ectivité des structures d'intérêt en employant une procédure de reconstruction tomographique. L'antenne comporte 1024 éléments répartis sur un arc de 190 degrés ayant un rayon de courbure de 100 mm. Les acquisitions sont gérées par une électronique à 32 voies parallèles indépendantes en émission/réception et par un multiplexer pour l'adressage des voies vers les éléments de l'antenne. Les circuits d'émission et de réception ont une réquence d'échantillonnage allant jusqu'à 80 MHz avec une précision de 12 bits. Des formes d'ondes arbitraires (pseudo-chirp, codes de Golay) sont transmises a n d'améliorer le rapport signal sur bruit. L'électroacoustique a été caractérisée avec des objets académiques et un hydrophone a n de déterminer les propriétés d'émission du système d'imagerie (réponses impulsionnelles et distribution spatiale du champ) et de développer des outils de correction des données ; ces résultats sont mis en regard avec le formalisme de résolution du problème inverse (algorithme de sommation des rétroprojections elliptiques fi ltrées en champ proche). L'évaluation du système d'imagerie est réalisées sur des objets ponctuels ( fils de 80 m de diamètre), des objets bidimensionnels à faible contraste d'impédance et un fantôme anthropomorphique de sein contenant des inclusions. La technique de compression d'impulsion est utilisée pour traiter les signaux ; l'apport de cette technique à la tomographie ultrasonore est évaluée en regard d'une impulsion large bande. La résolution spatiale est inférieure au tier de la longueur d'onde et les images préliminaires réalisées avec le système sont très satisfaisantes. Des perspectives de développement des méthodes d'inspection et des adaptations du système électroacoustique pour la tomographique anatomique du sein sont proposées au vue des études réalisées durant cette thèse.
68

Vision "fruste" revisitée : contribution à la vision dynamique des systèmes

Bouchafa, Samia 22 November 2011 (has links) (PDF)
Les travaux présentés dans le cadre de cette habilitation à diriger des recherches portent essentiellement sur l'analyse de scènes à partir de caméras mobiles avec pour application immédiate l'apport d'une vision par ordinateur efficace dans les systèmes d'aide à la conduite. L'idée initiale est que l'autonomie d'un système implique, ne serait-ce que pour raisons énergétiques, une faible variété d'opérateurs de perception, dont les algorithmes de vision. Les "primitives" extraites des images seront intrinsèquement robustes et stables vis-à-vis de perturbations variées. Elles doivent de plus anticiper, voire faciliter, un processus de décision à divers niveaux voulu systématique. Les lignes de niveaux répondent parfaitement à ces contraintes : on vérifie sans peine leur robustesse et leur abondance dans une image suggère et alimente un processus de décision cumulatif (manipulant un objet unique : l'histogramme). Nos efforts se sont alors concentrés sur deux aspects : 1) le premier concerne la définition d'une méthodologie cohérente dans laquelle un processus primaire d'extraction de lignes de niveaux est enrichi afin de permettre la construction de primitives plus complexes guidée par le modèle de déformation de l'image. Le nombre de composants donc la forme des primitives est fonction directe du nombre de variables caractérisant le mouvement (déformation) à déterminer. 2) Le second intéresse une méthode de décision cumulative unifiée permettant de traiter des thèmes applicatifs de complexité croissante. Nos travaux se déclinent alors en trois niveaux de cumul, chacun associé de manière réconfortante à un stade de l'analyse d'images. 1) Au plus bas niveau, nous retenons l'information binaire apparition/disparition d'une primitive dans le temps. La complexité se situe strictement sur l'axe temporel. Le cumul dans le temps nous permet ainsi de reconstruire la scène fixe et donc par soustraction du fond, l'image des objets mobiles. Les espaces de vote sont 1D et multiples, affectés à chaque primitive. 2) Le consensus se voudrait spatio-temporel au deuxième niveau pour identifier le mouvement. Il restera d'abord spatial en pratique pour raisons de complexité : des primitives voisines dans l'image s'associent pour former des "pré-objets" contraints exhibant ainsi des invariants exploitables : leur mouvement à instancier doit être cohérent. Le cumul s'opère donc cette fois selon un modèle de mouvement de la caméra. Les primitives votent pour la transformation globale qui les aurait conduites dans leur nouvelle position. L'espace de vote est commun à toutes les primitives et multidimensionnel (une dimension par paramètre de mouvement). 3) Au niveau le plus élevé, la sémantique accrue implique des hypothèses à la fois sur les primitives et sur l'origine du mouvement. Les primitives sont supposées appartenir à un même objet 3D (ex. un plan) présentant, pour un modèle de déplacement du capteur donné, une propriété caractéristique commune des vecteurs vitesse qui permet de l'extraire. Notamment, leurs amplitudes sont constantes le long de courbes image prédéfinies par leurs équations analytiques. Les primitives ne votent plus selon leur structure mais selon leur vitesse. Dans le cas d'une scène 3D approximée par un ensemble de plans et d'une caméra à mouvement majoritairement longitudinal, l'espace de vote (c-velocité) présente 2 dimensions : une pour la vitesse, l'autre pour le paramètre des courbes iso-vitesse. Chaque vitesse vote sur sa courbe. Les surfaces 3D émergent dans cet espace de vote comme courbes 2D connues (droites ou paraboles). Les thèmes applicatifs traités pour illustrer notre démarche sont de complexité croissante : détection et estimation du mouvement en caméra fixe, recalage d'images en caméra mobile (type de mouvement connu et profondeur des objets contrainte) puis estimation générale du mouvement propre et de la structure de la scène en caméras embarquées sur un véhicule mobile. Les résultats obtenus montrent comment un choix de primitives robustes associé à un processus de décision cumulatif permet la réutilisation des opérateurs dans tous les secteurs. Les systèmes proposés ont la particularité d'être compacts et cohérents, propriété recherchée dans les applications considérées.
69

Processing and analysis of sounds signals by Huang transform (Empirical Mode Decomposition: EMD)

Khaldi, Kais 20 January 2012 (has links) (PDF)
This dissertation explores the potential of EMD as analyzing tool for audio and speech processing. This signal expansion into IMFs is adaptive and without any prior assumptions (stationarity and linearity) on the signal to be analyzed. Salient properties of EMD such as dyadic filter bank structure, quasi-symmetry of IMF and fully description of IMF by its extrema, are exploited for denoising, coding and watermarking purposes. In speech signals denoising, we initially proposed a technique based on IMFs thresholding. A comparative analysis of performance of this technique compared to the denoising technique based on the wavelet. Then, to remedy the problem of the MMSE filters which requires an estimation of the spectral properties of noise, we introduced the ACWA filter in the denoising procedure. The proposed approach is consisted to filter all IMFs of the noisy signal by ACWA filter. This filtering approach is implemented in the time domain, and also applicable in the context of colored noise. Finally, to handle the case of hybrid speech frames, that is composed of voiced and unvoiced speech, we introduced a stationarity index in the denoising approach to detect the transition between the mixture of voiced and unvoiced sounds. In audio signals coding, we proposed four compression approaches. The first two approaches are based on the EMD, and the other two approaches exploit the EMD in association with Hilbert transform. In particular, we proposed to use a predictive coding of the instantaneous amplitude and frequency of the IMFs Finally, we studied the problem of audio signals watermarking in context of copyright protection. The number of IMFs can be variable depending on the attack type. The proposed approach involves inserting the mark in the extrema of last IMFs. In addition, we introduced a synchronization code in the procedure in order to facility the extraction of the mark. These contributions are illustrated on synthetic and real data and results compared to well established methods such as MMSE filter, wavelets approach, MP3 and AAC coders showing the good performances of EMD based signal processes. These findings demonstrate the real potential of EMD as analyzing tool (in adaptive way) in speech and audio processing.
70

Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiques

Rodet, Thomas 20 November 2012 (has links) (PDF)
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.

Page generated in 0.2346 seconds