Spelling suggestions: "subject:"designal anda image processing"" "subject:"designal ando image processing""
51 |
Ordonnancement temps réel pour architectures hétérogènes reconfigurables basé sur des structures de réseaux de neuronesEiche, Antoine 14 September 2012 (has links) (PDF)
L' evolution constante des applications, que ce soit en complexit e ou en besoin de performances, impose le d eveloppement de nouvelles architectures. Parmi l'ensemble des architectures propos ees se d emarquent les architectures recon gurables. Ce type d'architectures o re des performances proches d'un circuit d edi e tout en proposant davantage de exibilit e. Si originellement ces architectures ne pouvaient ^etre con gur ees qu' a leur d emarrage, elles sont d esormais con gurables partiellement a tout moment. Cette fonctionnalit e, nomm ee " recon guration dynamique ", permet de multiplexer temporellement et spatialement l'ex ecution de plusieurs applications, rapprochant ainsi l'utilisation des architectures recon gurables de celle d'un processeur g en eraliste. A l'instar des ordinateurs pourvus d'un processeur g en eraliste, il s'av ere donc n ecessaire de disposer d'un syst eme d'exploitation pour architectures recon gurables. Cette th ese se focalise sur la cr eation d'ordonnanceurs destin es a ce type d'architectures. Parce que nous ciblons l'ex ecution d'applications complexes - compos ees de plusieurs t^aches dont l'ordre d'ex ecution n'est pas connu a l'avance - les algorithmes d'ordonnancement doivent ^etre ex ecut es en ligne et les solutions obtenues en des temps tr es brefs. A cette n, nous r ealisons nos algorithmes d'ordonnancement en nous basant sur des r eseaux de neurones de Hop eld. Ce type de r eseaux a et e utilis e pour r esoudre des probl emes d'optimisations (tels que des probl emes d'ordonnancement) o u il a et e constat e qu'ils produisaient des solutions rapidement. De plus, leur simplicit e de fonctionnement (peu de structures de contr^ole) permet de les impl ementer e cacement sur des architectures recon gurables de type FPGA. Le premier chapitre de ce document introduit les concepts sur lesquels sont bas es nos travaux, a savoir, les architectures recon gurables ainsi que l'ordonnancement temporel et spatial destin e a ce type d'architectures. Le second chapitre pr esente les r eseaux de neurones de Hop eld. Dans le troisi eme chapitre, nous pr esentons un ordonnanceur temporel pour architectures h et erog enes recon gurables. Le quatri eme chapitre pr esente deux ordonnanceurs spatiaux, fond es sur des hypoth eses mat erielles di erentes. Le premier, bas e sur un r eseau de Hop eld, ne requiert que des m ecanismes de recon guration simples et est donc utilisable avec les outils fournis par les fabricants. Le second, quant a lui, n ecessite des m ecanismes actuellement non fournis par les fabricants, mais permet d'exploiter plus nement l'architecture. Le dernier chapitre pr esente des travaux relatifs aux r eseaux de neurones de Hop eld, a savoir l' evaluation parall ele de neurones, ainsi que des propri et es de tol erance aux fautes de ces r eseaux.
|
52 |
Robust Image Segmentation applied to Magnetic Resonance and Ultrasound Images of the ProstateGhose, Soumya 01 October 2012 (has links) (PDF)
Prostate segmentation in trans-rectal ultrasound (TRUS) and magnetic resonance images (MRI) facilitates volume estimation, multi-modal image registration, surgical planing and image guided prostate biopsies. The objective of this thesis is to develop shape and region prior deformable models for accurate, robust and computationally efficient prostate segmentation in TRUS and MRI images. Primary contribution of this thesis is in adopting a probabilistic learning approach to achieve soft classification of the prostate for automatic initialization and evolution of a shape and region prior deformable models for prostate segmentation in TRUS images. Two deformable models are developed for the purpose. An explicit shape and region prior deformable model is derived from principal component analysis (PCA) of the contour landmarks obtained from the training images and PCA of the probability distribution inside the prostate region. Moreover, an implicit deformable model is derived from PCA of the signed distance representation of the labeled training data and curve evolution is guided by energy minimization framework of Mumford-Shah (MS) functional. Region based energy is determined from region based statistics of the posterior probabilities. Graph cut energy minimization framework is adopted for prostate segmentation in MRI. Posterior probabilities obtained in a supervised learning schema and from a probabilistic segmentation of the prostate using an at-las are fused in logarithmic domain to reduce segmentation error. Finally a graph cut energy minimization in the stochastic framework achieves prostate segmenta-tion in MRI. Statistically significant improvement in segmentation accuracies are achieved compared to some of the works in literature. Stochastic representation of the prostate region and use of the probabilities in optimization significantly improve segmentation accuracies.
|
53 |
Une nouvelle méthode d'appariement de points d'intérêt pour la mise en correspondance d'imagesPalomares, Jean-Louis 25 October 2012 (has links) (PDF)
Ce mémoire de thèse traite de la mise en correspondance d'images pour des applications de vision stéréoscopique ou de stabilisation d'images de caméras vidéo. Les méthodes de mise en correspondance reposent généralement sur l'utilisation de points d'intérêt dans les images, c'est-à-dire de points qui présentent de fortes discontinuités d'intensité lumineuse. Nous présentons tout d'abord un nouveau descripteur de points d'intérêt, obtenu au moyen d'un fi ltre anisotropique rotatif qui délivre en chaque point d'intérêt une signature mono-dimensionnelle basée sur un gradient d'intensité. Invariant à la rotation par construction, ce descripteur possède de très bonnes propriétés de robustesse et de discrimination. Nous proposons ensuite une nouvelle méthode d'appariement invariante aux transformations euclidiennes et affines. Cette méthode exploite la corrélation des signatures sous l'hypothèse de faibles déformations, et dé finit une mesure de distance nécessaire à l'appariement de points. Les résultats obtenus sur des images difficiles laissent envisager des prolongements prometteurs à cette méthode.
|
54 |
Bipartite edge coloring approach for designing parallel hardware interleaver architectureAwais Hussein, Sani 11 May 2012 (has links) (PDF)
Nowadays, Turbo and LDPC codes are two families of codes that are extensively used in current communication standards due to their excellent error correction capabilities. However, hardware design of coders and decoders for high data rate applications is not a straightforward process. For high data rates, decoders are implemented on parallel architectures in which more than one processing elements decode the received data. To achieve high memory bandwidth, the main memory is divided into smaller memory banks so that multiple data values can be fetched from or stored to memory concurrently. However, due to scrambling caused by interleaving law, this parallelization results in communication or memory access conflicts which occur when multiple data values are fetched from or stored in the same memory bank at the same time. This problem is called Memory conflict Problem. It increases latency of memory accesses due to the presence of conflict management mechanisms in communication network and unfortunately decreases system throughput while augmenting system cost. To tackle the memory conflict problems, three different types of approaches are used in literature. In first type of approaches, different algorithms to construct conflict free interleaving law are proposed. The main reason to develop these techniques is to construct "architecture friendly" codes with good error correction capabilities in order to reduce hardware cost. However, architectural constraints applied during code design may impede error correction performance of the codes. In a second type of approaches, different design innovations are introduced to tackle memory conflict problem. Flexible and scalable interconnection network with sufficient path diversity and additional storing elements are introduced to handle memory conflicts. However, flexible networks require large silicon area and cost. In addition, delay introduced due to conflict management mechanisms degrades the maximum throughput and makes these approaches inefficient for high data rate and low power applications. In third type of approaches deals with algorithms that assign data in memory in such a manner that all the processing elements can access memory banks concurrently without any conflict. The benefit of this technique is that decoder implementation does not need any specific network and extra storage elements to support particular interleaving law. However, till now no algorithm exists that can solve memory mapping problem for both turbo and LDPC codes in polynomial time. The work presented in this thesis belongs to the last type of approaches. We propose several methods based on graph theory to solve memory mapping problem for both turbo and LDPC codes. Different formal models based on bipartite and tripartite graphs along with different algorithms to color the edges of these graphs are detailed. The complete path we followed before it is possible to solve mapping problem in polynomial time is hence presented. For the first two approaches, mapping problem is modeled as bipartite graph and then each graph is divided into different sub-graphs in order to facilitate the coloring of the edges. First approach deals with Turbo codes and uses transportation problem algorithms to divide and color the bipartite graph. It can find memory mapping that supports particular interconnection network if the interleaving rule of the application allows it. Second approach solves memory mapping problem for LDPC codes using two different complex algorithms to partition and color each partition. In the third algorithm, each time instance and edge is divided into two parts to model our problem as tripartite graph. Tripartite graph is partitioned into different sub-graphs by using an algorithm based on divide and conquer strategy. Then each subgraph is colored individually by using a simple algorithm to find a conflict free memory mapping for both Turbo and LDPC codes. Finally, in the last approach tripartite graph is transformed into bipartite graph on which coloring algorithm based on Euler partitioning principle is applied to find memory mapping in polynomial time. Several experiments have been performed using interleaving laws coming from different communication standards to show the interest of the proposed mapping methods. All the experiments have been done by using a software tool we developed. This tool first finds conflict free memory mapping and then generates VHDL files that can be synthesized to design complete architecture i.e. network, memory banks and associated controllers. In first experiment, bit interleaver used in Ultra Wide Band (UWB) interleaver is considered and a barrel shifter is used as constraint to design the interconnection network. Results are compared regarding area and runtime with state of the art solutions. In second experiments, a turbo interleaving law defined in High Speed Packet Access (HSPA) standard is used as test case. Memory mapping problems have been solved and associated architectures have been generated for this interleaving law which is not conflict free for any type of parallelism used in turbo decoding. Results are compared with techniques used in state of the art in terms of runtime and area. Third experiment focuses on LDPC. First, last algorithm we proposed is used to find conflict free memory mapping for non-binary LDPC codes defined in the DaVinci Codes FP7 ICT European project. Then, conflict free memory mapping have also been found for partially parallel architecture of LDPC codes used in WiMAX and WiFi for different level of parallelism. It is shown that the proposed algorithm can be used to map data in memory banks for any structured codes used in current and future standards for partially parallel architecture. In last experiment, thanks to the proposed approach we explored the design space of Quadratic Permutation Polynomial (QPP) interleaver that is used in 3GPP-LTE standard. The QPP interleaver is maximum contention-free i.e., for every window size W which is a factor of the interleaver length N, the interleaver is contention free. However, when trellis and recursive units parallelism are also included in each SISO, QPP interleaver is no more contention-free. Results highlight tradeoffs between area and performances based on for different radixes, parallelisms, scheduling (replica versus butterfly)...
|
55 |
Mots visuels pour le calcul de poseBhat, Srikrishna 22 January 2013 (has links) (PDF)
Nous abordons le problème de la mise en correspondance de points dans des images pour calculer la pose d'une caméra par l'algorithme Perspective-n-Point (PnP). Nous calculons la carte 3D, c'est-à-dire les coordonnées 3D et les caractéristiques visuelles de quelques points dans l'environnement grâce à une procédure d'apprentissage hors ligne utilisant un ensemble d'images d'apprentissage. Étant donné une nouvelle image nous utilisons PnP à partir des coordonnées 2D dans l'image de points 3D détectés à l'aide de la carte 3D. Pendant la phase d'apprentissage nous groupons les descripteurs SIFT extraits des images d'apprentissage pour obtenir des collections de positions 2D dans ces images de quelques-uns des points 3D dans l'environnement. Le calcul de SFM (Structure From Motion) est effectué pour obtenir les coordonnées des points correspondants 3D. Pendant la phase de test, les descripteurs SIFT associés aux points 2D projection d'un point 3D de la carte sont utilisés pour reconnaître le point 3D dans une image donnée. Le cadre de travail est semblable à celui des mots visuels utilisés dans différents domaines de la vision par ordinateur. Pendant l'apprentissage, la formation des mots visuelle est effectuée via l'identification de groupes et pendant les tests des points 3D sont identifiés grâce à la reconnaissance des mots visuels. Nous menons des expériences avec des méthodes de formation différentes (k-means et mean-shift) et proposons un nouveau schéma pour la formation des mots visuels pour la phase d'apprentissage. Nous utilisons différentes règles de mise en correspondance, y compris quelques-unes des méthodes standards de classification supervisée pour effectuer la reconnaissance des mots visuels pendant la phase de test. Nous évaluons ces différentes stratégies dans les deux étapes. Afin d'assurer la robustesse aux variations de pose entre images d'apprentissage et images de test, nous explorons différentes façons d'intégrer les descripteurs SIFT extraits de vues synthétiques générées à partir des images d'apprentissage. Nous proposons également une stratégie d'accélération exacte pour l'algorithme mean-shift.
|
56 |
Caractérisations quantitatives 3D à l'échelle nanométrique de l'extrême surface de lentilles à dioptres asphériques par analyse d'images.Gras, Sylvain 10 May 2007 (has links) (PDF)
L'objet de ce travail, réalisé entre Thalès-Angénieux et l'Ecole Nationale Supérieure des Mines de Saint-Étienne dans le cadre d'une convention CIFRE, porte sur l'analyse et la caractérisation de défauts apparaissant lors des différentes phases de fabrication de lentilles asphériques en fluorine. Les lentilles ainsi réalisées doivent être intégrées dans des produits et, de ce fait, ne doivent pas présenter de défauts gênants. La fluorine est une matière de plus en plus utilisée en optique de précision du fait de ses caractéristiques de transmission. La réalisation de dioptres asphériques dans cette matière est d'autant plus complexe. La fabrication de ces surfaces peut se faire de diverses façons. Des méthodes traditionnelles de polissage ou basées sur la microrectification et sur le tournage à l'outil diamant sont couramment utilisées. Cette dernière, relativement plus facile, plus rapide à mettre en œuvre et de coût moindre, donne néanmoins des surfaces inacceptables, non pas en terme de forme et de rugosité, mais des zones d'arrachement apparaissent sur le dioptre. Les moyens de mesure standard : profilométrie mécanique, déflectométrie, interférométrie sous rayonnements visibles monochromatique et polychromatique utilisés généralement à chaque étape de ces processus deviennent alors insuffisants et ne permettent pas d'expliquer l'origine de ces arrachements. Une étude de la structure cristallographique par diffraction des rayons X ainsi qu'une interprétation des résultats par un logiciel d'analyse d'images permet alors d'expliquer ce phénomène et de relier l'orientation du monocristal de fluorine à la réalisation de dioptres sans défauts. Ainsi il devient possible de remonter aux conditions d'usinage, de les modifier dans le but d'obtenir des surfaces exemptes de tout défaut.
|
57 |
Modélisation et Extraction des Descripteurs Intrinsèques des Images Satellite à Haute Résolution: Approches Fondées sur l'Analyse en Composantes IndépendantesBirjandi, Payam 16 September 2011 (has links) (PDF)
Les images satellites haute résolution contiennent des informations très détaillées comme la forme des bâtiments, les zones industrielles, etc. Leur contenu d'information est hyper riche et très compliqué a extraire. Parmi les paysages différents, les zones urbaines et des structures géométriques sont les paysages plus compliques pour les différant domaines de recherches. Nous allons extraire les indices intrinsèques des images satellite et proposer les descripteurs robustes. En utilisant ces descripteurs, nous serions capables de reconnaitre une variété des paysages, en particulier, les structures géométriques au sein des images satellite. L'analyse en composantes indépendantes (l'ACI) est la base théorique de cette thèse. La première contribution de thèse est une investigation sur l'effet de la taille de l'échelle et la dimension d'un système de l'ACI qui est utilisé pour caractérisation des images satellite. Cela nous aide à choisir le framework de notre modèle de l'ACI pour extraire des caractéristiques. On propose deux groupes des descripteurs pour les images satellites haute résolution. Le premier groupe contient deux types des descripteurs qui sont basés sur les coefficients (les sources) de l'ACI ordinaire ou l'ACI topographique et le deuxième contient deux types des descripteurs qui sont basés sur les propriétés des vecteurs de base de l'ACI. En se basant sur notre expérience en l'ACI nous proposons un autre descripteur qui extrait les caractéristiques des lignes dans les images satellites. Finalement, les capacités des descripteurs proposés sont comparés grâce a une classification supervisée basée sur la machine à vecteurs de support.
|
58 |
Contributions à la séparation de sources et à la description des contenus audioVincent, Emmanuel 23 November 2012 (has links) (PDF)
Les données audio occupent une position centrale dans notre vie, que ce soit pour la communication parlée, les vidéos personnelles, la radio et la télévision, la musique, le cinéma, les jeux vidéos ou les divertissements. Cela crée un ensemble de besoins applicatifs allant du rehaussement du signal à l'extraction d'information, en passant par la réditorialisation et la manipulation interactive des contenus. Les données audio réelles ont une structure complexe due à la superposition de plusieurs sources sonores et à la coexistence de plusieurs niveaux d'information. Par exemple, les enregistrements de parole incluent souvent des locuteurs simultanés ou du bruit de fond et ils portent des informations sur l'identité des locuteurs, la langue et le sujet de la discussion, le texte prononcé, l'intonation et l'environnement acoustique. Les enregistrements de musique sont aussi typiquement constitués de plusieurs instruments musicaux ou voix et ils contiennent des informations sur le compositeur, l'organisation temporelle des morceaux, la partition sous-jacente, l'interprétation et l'environnement acoustique. Lorsque j'ai commencé mes études de doctorat de 2001, la séparation des signaux sources dans un enregistrement était considérée comme l'un des grands défis vers l'application des techniques de traitement du signal audio initialement conçues pour des sources seules à des données réelles multi-sources. Les techniques de formation de voies fixe ou adaptative étaient déjà établies, mais elles demandaient un grand nombre de microphones rarement disponible en pratique. Les premières techniques de séparation aveugle de sources conçues pour un nombre plus faible de microphones venaient à peine d'être appliquées à l'audio. Onze ans plus tard, des progrès importants ont été faits et la séparation de sources est devenue un sujet mûr. Grâce en particulier à certaines des contributions listées dans ce document, l'équipe METISS a acquis une réputation de leader dans le domaine, démontrée par un nombre croissant de transferts technologiques visant à rehausser et remixer des signaux de parole et de voix dans divers cas d'usage. L'utilisation de la séparation de sources comme un pré-traitement pour la description de sources de parole ou de musique au sein d'un mélange soulève le défi supplémentaire de prendre en compte les distorsions non-linéaires sur les signaux sources estimés. Des méthodes robustes d'interfaçage de la séparation de sources, de l'extraction de descripteurs et de classification ont émergé dans les dix dernières années basées sur l'idée de propagation de l'incertitude. Ce sujet faisait partie de mon programme de recherche lorsque j'ai rejoint Inria en 2006 et il est actuellement en forte croissance en raison de l'omniprésence des applications vocales pour les appareils portables. Les méthodes actuelles n'ont cependant pas encore atteint la robustesse du système auditif humain, et la reconnaissance de la parole ou du locuteur dans des environnements réels avec du bruit non-stationnaire reste un problème très difficile. Par rapport aux deux défis ci-dessus, le traitement conjoint des différents niveaux d'information sous-jacents aux signaux audio a attiré un intérêt moindre à ce jour. Il demeure cependant un problème fondamental pour le traitement de la musique en particulier, où des tâches telles que la transcription de hauteurs polyphonique et l'identification d'accords sont typiquement effectuées indépendamment l'une de l'autre sans prendre en compte les fortes dépendances entre les informations de hauteur et d'harmonie. Mon travail s'est focalisé sur ces trois défis et il est basé en particulier sur les fondements théoriques de la modélisation et de l'estimation bayésienne d'une part et de la modélisation parcimonieuse et de l'optimisation convexe d'autre part. Ce document fournit une vue d'ensemble de mes contributions depuis la fin de mon doctorat selon quatre axes: le Chapitre 1 se focalise sur la formalisation et l'évaluation diagnostique de certains problèmes étudiés, le Chapitre 2 sur la modélisation linéaire des signaux audio et les algorithmes associés, le Chapitre 3 sur la modélisation de variance des signaux audio et les algorithmes associés, et le Chapitre 4 sur la description des contenus multi-sources et multi-niveaux. Le chapitre 5 résume les perspectives de recherche issues de ce travail.
|
59 |
Méthodes statistiques en télédétection RSO polarimétrique haute résolution pour la modélisation et le suivi temporel des glaciers.Harant, Olivier 20 July 2012 (has links) (PDF)
Ce travail de thèse propose une méthode générale d'estimation de déplacement de la surface des glaciers à partir d'images RSO polarimétriques à Haute Résolution spatiale. Les caractéristiques nouvelles de ces images offrent un niveau de détail propice au développement de nouvelles méthodes de suivi de texture complémentaires aux méthodes classiques d'interférométrie RADAR difficiles à mettre en oeuvre dans ce contexte. La méthode proposée est basée sur la vraisemblance du rapport d'images RSO multivariées. L'utilisation du rapport d'images RSO et des lois statistiques correspondantes offrent une souplesse adaptée aux caractéristiques des images RSO notamment au caractère multiplicatif du chatoiement. La texture extraite du jeu polarimétrique offre une bonne robustesse aux variations surfaciques de la neige. La question du modèle statistique sous-jacent des images HR est abordé et l'utilisation des lois de Fisher est justifié. Des protocoles de test permettent de souligner la sensibilité de ce type de méthode. Le schéma méthodologique est complété par un ensemble de traitements avancés tels que la segmentation hiérarchique et l'utilisation d'un modèle d'écoulement. Deux sites d'études dans les Alpes françaises et en Antarctique ont permis d'éprouver cette méthode sur l'estimation de déplacement des glaciers d'Argentière et de l'Astrolabe. Une étude préliminaire sur la généralisation multi-capteurs de cette chaîne de traitement est finalement introduite.
|
60 |
Réseaux de capteurs ad-hoc Ultra Wide Band : une analyse multi couchePanaitopol, Dorin 05 July 2011 (has links) (PDF)
Les systèmes Ultra Wide Band (UWB) représentent une solution prometteuse pour le développement de nouveaux types de réseaux locaux sans-fils. L'UWB a été un domaine de recherche actif depuis 20 ans et pourrait être la couche physique pour de futurs réseaux sans fils à accès multiples à très haut débit ainsi qu'à bas débit avec consommation énergétique minimale, tout en offrant des possibilités de localisation à haute précision. Nous nous intéressons dans cette thèse aux réseaux ad-hoc de capteurs UWB en partant de la couche physique pour remonter aux couches plus élevées : optimisation d'antenne, modélisation d'interférence, conception de récepteurs et transmetteurs, optimisation de débit et schémas coopératifs. Une première contribution concerne la non Gaussianité des interférences multi utilisateurs : nous avons développé un critère de performance qui prend en compte les paramètres du système et la distribution des MUI afin de calculer la capacité des communications et le débit utile. Nous avons montré que le débit peut être maximisé en contrôlant l'impulsivité des interférences et nous avons montré l'impact de la conception de l'antenne sur cette impulsivité et par conséquent sur la capacité des systèmes UWB. A partir de l'étude des MUI, une autre contribution concerne de nouveaux récepteurs et émetteurs IR-UWB. Le récepteur proposé modélise la densité de probabilité des interférences comme une distribution mélangée. Nous avons également étudié un nouvel émetteur basé sur le retournement temporel combiné à l'IR UWB et étudié le gain apporté par le retournement temporel lorsque la complexité est assumée par le transmetteur à la place du récepteur, i.e. quand le nombre de doigts du pre-filtre est augmenté et quand le nombre de doigts du récepteur à râteau est diminué. Nous avons également montré que le time réversal combiné à l'IR UWB change la distribution des interférences. Les recherches ont ensuite porté sur des schémas coopératifs. Nous avons proposé dans une première étude un schéma de relayage incrémental qui utilise plusieurs relais mais avec un retour imparfait et proposé finalement une règle simple de sélection distribuée des relais.
|
Page generated in 0.1091 seconds