• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Use of operator theory and sub-band filters in the analysis and encoding of signals and images

Gui, Le. Jørgensen, Palle E. T., January 2009 (has links)
Thesis supervisor: Palle Jorgensen. Includes bibliographic references (p. 85-87).
2

Techniques de codage avancées et applications au CDMA

Guemghar, Souad 29 January 2004 (has links) (PDF)
Ce travail propose des schémas de codage et de décodage à complexité réduite, afin d'approcher la capacité des canaux à entrée binaire et sortie symétrique, ainsi que des canaux d'accès multiple à répartition par codes. Dans la première partie de cette thèse, nous nous attelons à étudier l'ensemble aléatoire de codes irréguliers dits ``répétition-accumulation'', de longueur infinie, transmis sur un canal à entrée binaire et sortie symétrique, et décodés par l'algorithme somme-produit. En utilisant la technique de l'évolution de densités, on écrit un système récursif qui décrit l'évolution des densités des messages qui sont propagés sur le graphe de Tanner qui représente l'ensemble de codes. Ensuite, on formule un cadre général dans lequel l'évolution des densités est approximée par un système dynamique dont les variables appartiennent à l'ensemble des nombres réels. A partir de ce cadre, on propose quatre méthodes de complexité réduite pour optimiser des codes répétition-accumulation. Ces méthodes sont basées sur l'approximation Gaussienne, l'approximation réciproque (duale), et la fonction de transfert de l'information mutuelle extrinsèque. Ces méthodes permettent de construire des codes de différents rendements, et dont les taux d'erreur tendent vers zéro, pour peu que la condition de stabilité locale soit satisfaite. Les seuils de décodage, évalués par la technique d'évolution de densités exacte, sont très proches de la limite de Shannon du canal Gaussien à entrée binaire et du canal binaire symétrique. Pour le canal Gaussien à entrée binaire, nous nous intéressons à la performance de ces codes dans le cas de la longueur finie, avec un graphe de Tanner conditionné pour maximiser les tailles des cycles les plus courts ou de certains cycles dits ``bloquants''. La performance de ces codes est comparée à celle de l'ensemble aléatoire décodé au maximum de vraisemblance, ainsi qu'à celle des meilleurs codes de Gallager de même rendement et niveau de conditionnement. La deuxième partie de cette thèse développe un schéma de codage/décodage à complexité réduite afin d'approcher la capacité d'un canal aléatoire d'accès multiple à répartition par codes en présence d'un bruit Gaussien, dans la limite d'un système de taille infinie. Notre approche est basée sur l'utilisation d'une modulation à déplacement de phase quadrivalente, des codes binaires correcteurs d'erreurs atteignant la capacité du canal, des filtres à erreur quadratique moyenne minimale et du décodeur successif. On optimise le profil des puissances (respectivement des rendements) en supposant que les utilisateurs du système à accès multiple ont tous le même rendement (respectivement la même puissance). Dans le cas où tous les utilisateurs ont le même rendement, l'efficacité spectrale du système optimisé est très proche de l'efficacité spectrale optimale. Au travers de simulations numériques, il est montré que la méthode d'optimisation permet de passer du système à taille infinie à un système pratique de taille finie, dont le décodage successif ne propage pas d'erreur de décodage.
3

Le système visuel humain au secours de la vision par ordinateur

Benoit, Alexandre 14 February 2007 (has links) (PDF)
L'objectif de ce travail est de mettre en évidence l'intérêt d'utiliser des modélisations du système visuel humain pour développer des outils de traitement d'images. En effet, il est reconnu que le SVH peut s'affranchir d'un certain nombre de diffi cultés couramment rencontrées en vision par ordinateur: les problèmes d'éclairage, les contre-jours, le bruit, etc. Nous proposons un ensemble de modules de traitement d'image bas niveau qui permettent de réaliser des tâches spécifi ques telles que l'extraction de contours, l'analyse spectrale et la détection de mouvement. Ces outils sont assemblés dans le but d'effectuer des tâches d'analyse de plus haut niveau. Nous présentons deux applications possibles: un système d'analyse du visage capable de détecter les clignements d'yeux, les bâillements, inséré dans un système de détection de l'hypovigilance chez le conducteur. Une seconde application traite de l'analyse du mouvement en général avec un système de suivi et de reconnaissance d'objets.
4

Complex directional wavelet transforms Representation, statistical modeling and applications/

Vo, An Phuoc Nhu. January 2008 (has links)
Thesis (Ph.D.) -- University of Texas at Arlington, 2008.
5

Recognition of Sign Language Using Neural Networks

Vamplew, P Unknown Date (has links) (PDF)
This thesis details the development of a computer system (labelled the SLARTI system) capable of recognising a subset of signs from Auslan (the sign language of the Australian Deaf community), based on the pattern classification paradigm of artificial neural networks. The research discussed in this work has two main streams. The first is the creation of a practical sign classification system, suitable for use within a sign language training system or other applications based on hand gestures. The second is an exploration of the suitability of neural networks for the creation of a real-time classification system with the ability to process temporal patterns. Sign languages such as Auslan are the primary form of communication between members of the Deaf community. However these languages are not widely known outside of these communities, and hence a communications barrier can exist between Deaf and hearing people. The techniques for recognising signs developed in this research allow the creation of systems which can help to eliminate this barrier, either by providing computer tools to assist in the learning of sign language, or potentially the creation of portable sign-language-to-speech translation systems. Artificial neural networks have proved to be an extremely useful approach to pattern classification tasks, but much of the research in this field has concentrated on relatively simple problems. Attempting to apply these networks to a complex real-world problem such as sign language recognition exposed a range of issues affecting this classification technique. The development of the SLARTI system inspired the creation of several new techniques related to neural networks, which have general applicability beyond this particular application. This thesis includes discussion of techniques related to issues such as input encoding, improving network generalisation, training recurrent networks and developing modular, extensible neural systems.
6

MEG Source Imaging and Dynamic Characterization.

Khan, Sheraz 15 January 2010 (has links) (PDF)
This work focuses on two complementary aspects of magnetic source imaging using Magnetoencephalography: 1. Imaging of neural current sources from MEG surface recordings. 2. Dynamic characterization of neural current patterns at the surface of the cortex. MEG Source Imaging Accurate estimation of the local spatial extent of neural current activity is very important for the quantitative analysis of neural current sources, as estimated from Magnetoencephalography (MEG) surface recordings. In association with the excellent time resolution offered by MEG, this would represent a major advancement in non invasive, time-resolved functional brain imaging. We address this issue through a new method called Multipole Cortical Remapping (MCR) to accurately specify the spatial extent of neural current sources. In MCR, the zero-order Tikhonov regularized image of the current distribution on the cortex is rst estimated from MEG surface data for which we sought for a realistic model of neural generators. Then the resulting functional image is thresholded using a simple histogram-based principle. This thresholded image is then decomposed into groups of activation patterns following an automatic labeling algorithm based on the geometrical properties of the cortical surface. The equivalent multipolar decomposition of each current patch is then obtained. By default, the multipolar moments are not readily related to the actual anatomical support of the actual neural currents detected using MEG. Hence we introduce an image remapping techniques of the multipolar parameters back onto the original cortical manifold in a Bayesian framework that includes physiological and anatomical priors. MEG Source Dynamic Characterization For dynamic characterization of neural current patterns at the surface of the cortex, we used modied Helmholtz Hodge Decomposition (HHD) which is applied on motion eld of neural current sources. This motion eld is also known as optical ow. Optical ow is the apparent motion due to variations in the pattern of brightness and, under specic conditions, may mimic the velocity eld of an object. Normally, the optical ow is obtained in a two-dimensional domain, which may prevent access to some essential features of the object's motion with respect to the topology or geometry of the domain onto which it is evolving. A new variational method to represent optical ow on non at surfaces using Riemannian formulation was recently introduced by our group to overcome this issue. We broaden this framework and introduce a new formalism to detect features in the resulting optical ow model using a modied and extend framework to the HHD on 2-Riemannian manifolds, which we use to characterize neural current sources. HHD is a technique used to decompose a two-dimensional (resp. threedimensional) continuous vector eld into the sum of 3 distinct components: 1. a non-rotational element, deriving from the gradient of a scalar potential U; 2. a non-diverging component, deriving from the rotational of a scalar potential A (resp. vectorial potential); 3. a harmonic vectorial part, i.e., whose Laplacian vanishes The HHD approach enables the decomposition and tracking of time-resolved neural current ows as obtained from MEG source imaging as sources and sinks, e.g., by detecting relative maxima of the non-rotational scalar potential. It also extends the analysis of brain activity in terms of tracking travelling objects onto the cortical manifold by detecting vectors of largest amplitudes in zero Laplacian harmonic vector elds. We also apply HHD in structural and functional brain imaging applications. The results are very encouraging. We believe that HHD has an enormous potential and it can decipher many riddles in neuroscience. The methods discussed in HHD portion of the thesis are implemented in Matlab as plug-in to the Brainstorm (MEG/EEG data processing software) and can be downloaded from: http://neuroimage.usc.edu/brainstorm
7

Appariement Robuste de Formes Visuelles Complexes, Application à la Détection d'Objets

Onis, Sébastien 15 October 2009 (has links) (PDF)
L'augmentation des moyens informatiques associée à l'avènement de méthodes de classification performantes tels que l'AdaBoost ou les réseaux de neurones ont permis d'obtenir des systèmes de détection d'objets efficaces, mais nécessitant l'annotation manuelle de plusieurs milliers d'images exemples. Ce document présente une méthode permettant d'obtenir un système de détection d'objets capable de fonctionner avec une base d'images exemples de dimension réduite, tout en obtenant les taux de détection de l'état de l'art en détection de visages. Nous commençons par présenter les diverses méthodes utilisées en détection d'objets, et en particulier, les méthodes d'apprentissages associées. Puis, nous expliquons un système de détection basé sur la corrélation et fonctionnant avec une base d'exemples de moins d'une centaine d'images. Ce système nous a permis de mettre au point une méthode d'association de mesures de similarité utilisant des filtres de contours orientés orthogonaux. Les filtres sont obtenus par une méthode dérivée de la PCA qui permet de calculer des filtres orthogonaux adaptés à la classe d'objets à détecter. Nous montrons alors qu'il est possible de mettre au point un système de détection de visages fonctionnel avec très peu d'exemples. La corrélation s'avérant le facteur limitant le plus les résultats, nous avons ensuite remplacé cette dernière par un Perceptron Multicouche. Nous avons appliqué les méthodes d'associations d'images de contours orientés et montré une nette amélioration des taux de détection en utilisant des bases d'apprentissages de dimension réduite. Finalement, nous mettons en évidence les perspectives et solutions possibles qui nous permettraient de minimiser encore le nombre d'exemples d'apprentissage.
8

Une Approche Stochastique Pour l'Evaluation De La Dynamique Des Données

Banciu, Andrei 29 February 2012 (has links) (PDF)
Les applications de traitement du signal ont connu un très fort développement dans les dernières décennies, bénéficiant des avancées majeures de l'industrie des semi-conducteurs. Toutes les implémentations pratiques utilisent l'arithmétique en virgule fixe afin de réduire la surface et la consommation d'énergie. En conséquence, une conversion de la description en virgule flottante de l'algorithme à une implémentation en virgule fixe qui ajuste la largeur du chemin de données doit être réalisée. C'est un processus d'optimisation qui consiste à trouver les partie fractionnaire (évaluation de la précision numérique) et entière (estimation de la dynamique) minimales qui satisfassent les contraintes de performance. Dans cette thèse, une approche stochastique pour l'évaluation de la dynamique des données est présentée. Notre objectif est d'obtenir une représentation complète de la variabilité qui intègre le comportement probabiliste et non seulement les limites maximales et minimales. Une méthode basée sur le développement de Karhunen-Loève est développée pour le cas des systèmes linéaires et invariants dans le temps. Ensuite, le développement du chaos polynomial est introduit afin de traiter des opérations non-linéaires. Les méthodes sont appliquées à l'optimisation de la taille de données quand une légère dégradation des performances est acceptable. La dynamique retenue ne couvre plus tout l'intervalle théorique de variation : des débordements sont autorisés avec une contrainte quant à leur probabilité d'apparition. Les signaux qui ont des variations importantes de leur amplitude sont approximées avec des intervalles réduits pour réduire le coût de l'implémentation.
9

Algorithmes d'Allocation de Ressources en OFDM Multi-Utilisateurs sous Contraintes de Qualité de Service

Alsawah, Ayman 05 December 2008 (has links) (PDF)
Cette thèse considère les problèmes d'allocation de ressources en OFDM multi-utilisateurs avec diverses types de contraintes de qualité de service (QoS) adaptées à plusieurs contextes applicatifs. L'objectif est de proposer des algorithmes pratiques pour la liaison descendante basés sur une connaissance partielle des canaux. Nous considérons pour commencer la question du partage optimal de sous-porteuses entre les utilisateurs d'une cellule sous contraintes de QoS hétérogènes. Nous permettons à plusieurs utilisateurs de partager la même sous-porteuse créant ainsi de l'interférence multi-utilisateurs sur chaque sous-porteuse. Nous montrons l'optimalité, vis-à-vis de la somme pondérée de débits, d'un partage orthogonal du type OFDMA assorti d'une allocation appropriée de puissance. Nous généralisons aussi l'optimalité de l'OFDMA à d'autres mesures de performance telles que le débit commun, les débits proportionnels, etc. Nous considérons en suite une liaison OFDMA descendante d'une cellule et nous mettons l'accent sur l'équité en QoS. Notre approche exploite la connaissance du canal moyen de chaque utilisateur et de la charge du système. Nous décrivons l'allocation optimale de sous-porteuses et de modulations maximisant le débit utilisateur tout en caractérisant les probabilités de coupure soumises à des valeurs maximales cibles. Enfin, nous considérons le cas multi-cellules et nous utilisons la technique de ré-utilisation fractionnelle de sous-porteuses afin de gérer les interférences entre-cellules et d'améliorer l'efficacité spectrale. Dans ce contexte, nous proposons une solution d'allocation de bande et de station de base garantissant la meilleure QoS équitable étant donnée la connaissance des canaux moyens.
10

Allocation de ressources pour la transmission de données multimedia scalables

Houas, Heykel 04 June 2009 (has links) (PDF)
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. La QoS de ces réseaux est exprimée en terme de qualité perçue du point de vue de l'utilisateur (couche Application) et en terme de taux d'erreurs binaires (TEB) par classe du point de vue de la transmission (couche Physique). Les ressources étudiées sont : l'allocation des puissances, des ordres de modulation et des porteuses ainsi que les propriétés de protection inégale contre les erreurs (UEP). L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (sous forme de classes d'importance) en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation, sous contrainte de performances cibles en réception. Les stratégies d'adaptation de lien que nous présentons se basent sur la possible troncature d'une partie de ces données à transmettre. Elles se fondent également sur le degré de sensibilité et la protection adéquate de chacune de ces classes contre les erreurs liées à la transmission sur le canal, conformément aux exigences de QoS exprimées sur ces dernières. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Dans ces contextes, nous décrivons l'allocation optimale de sous-porteuses, de modulations, de rendements de code et d'énergie maximisant le débit source de l'utilisateur tout en véri ant les contraintes sur la charge du système et la QoS. Nous montrons que ces schémas d'allocation sont adaptables à de nombreux systèmes de communication et présentent des performances supérieures aux stratégies de l'état de l'art.

Page generated in 0.1481 seconds