• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Application d'un langage de programmation de type flot de données à la synthèse haut-niveau de système de vision en temps-réel sur matériel reconfigurable

Ahmed, Sameer 24 January 2013 (has links) (PDF)
Les circuits reconfigurables de type FPGA (Field Programmable Gate Arrays) peuvent désormais surpasser les processeurs généralistes pour certaines applications offrant un fort degré de parallélisme intrinsèque. Ces circuits sont traditionnellement programmés en utilisant des langages de type HDL (Hardware Description Languages), comme Verilog et VHDL. L'usage de ces langages permet d'exploiter au mieux les performances offertes par ces circuits mais requiert des programmeurs une très bonne connaissance des techniques de conception numérique. Ce pré-requis limite fortement l'utilisation des FPGA par la communauté des concepteurs de logiciel en général. Afin de pallier cette limitation, un certain nombre d'outils de plus haut niveau ont été développés, tant dans le monde industriel qu'académique. Parmi les approches proposées, celles fondées sur une transformation plus ou moins automatique de langages de type C ou équivalent, largement utilisés dans le domaine logiciel, ont été les plus explorées. Malheureusement, ces approches ne permettent pas, en général, d'obtenir des performances comparables à celles issues d'une formulation directe avec un langage de type HDL, en raison, essentiellement, de l'incapacité de ces langages à exprimer le parallélisme intrinsèque des applications. Une solution possible à ce problème passe par un changement du modèle de programmation même. Dans le contexte qui est le notre, le modèle flot de données apparaît comme un bon candidat. Cette thèse explore donc l'adoption d'un modèle de programmation flot de données pour la programmation de circuits de type FPGA. Plus précisément, nous évaluons l'adéquation de CAPH, un langage orienté domaine (Domain Specific Language) à la description et à l'implantation sur FPGA d'application opérant à la volée des capteurs (stream processing applications). L'expressivité du langage et l'efficacité du code généré sont évaluées expérimentalement en utilisant un large spectre d'applications, allant du traitement d'images bas niveau (filtrage, convolution) à des applications de complexité réaliste telles que la détection de mouvement, l'étiquetage en composantes connexes ou l'encodage JPEG.
292

Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables

Ouerhani, Yousri 16 November 2012 (has links) (PDF)
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
293

Estimation du mouvement apparent majoritaire dans une séquence d'images vidéo par accumulation de votes bimodaux sur un histogramme approché

Comby, Frédéric 19 December 2001 (has links) (PDF)
Ce manuscrit présente une approche particulièrement novatrice du problème d'estimation du mouvement apparent dominant dans une séquence d'images. Elle se démarque des approches classiques apparentées à la corrélation ou au flot optique par le fait que les hypothèses sur les relations entre le mouvement apparent et les variations du niveau de gris des pixels de l'image influent peu sur la robustesse du procédé. L'originalité de ce travail repose sur l'utilisation d'un ensemble de techniques de représentation de l'imprécis et de l'incertain permettant de minimiser l'a priori dans le processus d'estimation. L'estimation du mouvement majoritaire fait appel à l'estimation de la densité de probabilité du mouvement puis à la recherche du mode principal de cette distribution. Ces deux étapes sont réalisées grâce à une extension de la technique des histogrammes que nous avons appelée histogrammes approchés. Ces derniers permettent de prendre en compte les défauts de type imprécision et incertitude des données accumulées et de minimiser l'influence du partitionnement de l'espace paramétrique de ces données. La validité de notre approche est établie par des expérimentations sur des séquences d'images synthétiques et réelles. Celles-ci permettent de tester le comportement de notre méthode vis-à-vis de perturbations usuelles en traitement d'images telles que des variations d'illumination, des mouvements parasites ou des occlusions. Nous proposons deux applications à notre méthode d'estimation qui sont : la construction de mosaïque d'images et la stabilisation de séquences vidéo. Les résultats présentés permettent d'illustrer les performances satisfaisantes de notre approche en termes de robustesse et de précision.
294

Estimation des déformations du ventricule gauche sur des séquences ciné-IRM non-marquées

Randrianarisolo, Solofohery 03 March 2009 (has links) (PDF)
Cette thèse présente un nouveau concept pour l'évaluation des déformations cardiaques à partir de ciné-IRM standard sans avoir recours aux images IRM marquées. Nous avons adapté la méthode des ensembles de niveaux afin de segmenter le myocarde et évalué le déplacement des contours endo et épicardique. Le processus de segmentation est appliqué directement sur un ensemble d'images pseudo-volumique 2D + t. Cela conduit à une méthode de segmentation efficace tenant compte à la fois des contraintes de continuité spatiale et temporelle. Puis, nous avons évalué le déplacement des contours endo et épicardique détectés avec une technique de mise en correspondance fondée sur les ensembles de niveaux. La vitesse de déplacement au sein de la paroi myocardique est évaluée par une méthode de flot optique, contrainte avec le déplacement des contours. Enfin, de ce champ de vitesses du myocarde, nous tirons des mesures pertinentes de la contraction cardiaque. La validation de la méthode proposée est effectuée sur des séquences d'images synthétiques, et en comparant sur les mêmes patients nos mesures à celles obtenues avec la méthode de référence HARP appliquée sur des images IRM taggées correspondantes. Les résultats de la méthode sont encourageants, ils sont pratiquement identiques à ceux de l'approche HARP. Cette méthode présente deux avantages principaux: premièrement elle exploite les ciné-IRM standard non taggées, deuxièmement elle permet des évaluations des déformations à haute résolution spatiale. Cette méthode est déjà disponible et peut rendre accessible l'évaluation des déformations du ventricule gauche du myocarde en routine clinique à partir des séquences ciné-IRM
295

Évaluation de système biométrique

El Abed, Mohamad 09 December 2011 (has links) (PDF)
Les systèmes biométriques sont de plus en plus utilisés pour vérifier ou déterminer l'identité d'un individu. Compte tenu des enjeux liés à leur utilisation, notamment pour des applications dans le domaine de commerce électronique, il est particulièrement important de disposer d'une méthodologie d'évaluation de tels systèmes. Le problème traité dans cette thèse réside dans la conception d'une méthodologie générique visant à évaluer un système biométrique. Trois méthodes ont été proposées dans cette thèse: 1) une méthode de qualité sans référence pour prédire la qualité d'une donnée biométrique, 2) une méthode d'usage pour évaluer l'acceptabilité et la satisfaction des usagers lors de l'utilisation des systèmes biométriques et 3) une méthode d'analyse sécuritaire d'un système biométrique afin de mesurer sa robustesse aux attaques
296

Pour une ingénierie des connaissances pour le développement d'applications de traitement d'images

Clouard, Régis 16 December 2009 (has links) (PDF)
Les travaux de recherche développés dans ce manuscrit portent sur la conception de systèmes de génération automatique de programmes de traitement d'images. De tels systèmes ont pour ambition de permettre à des utilisateurs non nécessairement experts en traitement d'images de construire seuls des programmes de traitement d'images dédiés. Cet objectif pose des défis importants en grande partie causés par les fossés sensoriel et sémantique qui séparent le contenu des images à traiter des besoins des utilisateurs. Les contributions se situent dans le domaine de l'ingénierie des connaissances où l'objectif est abordé sous l'angle du pilotage d'algorithmes à partir de systèmes à base de connaissances. Le point de vue développé soutient que le recours aux connaissances symboliques explicites, et donc à des systèmes à base de connaissances, est une voie prometteuse pour concevoir des systèmes de traitement d'images, dès lors que l'on envisage d'accroître les capacités d'adaptation à tout un ensemble de contextes différents. C'est sous cet angle que sont abordées les différentes parties du système : la formulation d'objectifs de traitement d'images ; la génération automatique de programmes ; l'interaction Homme-Machine ; l'acquisition de connaissances.
297

Optimisation multi-niveau d'une application de traitement d'images sur machines parallèles

Saidani, Tarik 06 November 2012 (has links) (PDF)
Cette thèse vise à définir une méthodologie de mise en œuvre d'applications performantes sur les processeurs embarqués du futur. Ces architectures nécessitent notamment d'exploiter au mieux les différents niveaux de parallélisme (grain fin, gros grain) et de gérer les communications et les accès à la mémoire. Pour étudier cette méthodologie, nous avons utilisé un processeur cible représentatif de ces architectures émergentes, le processeur CELL. Le détecteurde points d'intérêt de Harris est un exemple de traitement régulier nécessitant des unités de calcul intensif. En étudiant plusieurs schémas de mise en oeuvre sur le processeur CELL, nous avons ainsi pu mettre en évidence des méthodes d'optimisation des calculs en adaptant les programmes aux unités spécifiques de traitement SIMD du processeur CELL. L'utilisation efficace de la mémoire nécessite par ailleurs, à la fois une bonne exploitation des transferts et un arrangement optimal des données en mémoire. Nous avons développé un outil d'abstraction permettant de simplifier et d'automatiser les transferts et la synchronisation, CELL MPI. Cette expertise nous a permis de développer une méthodologie permettant de simplifier la mise en oeuvre parallèle optimisée de ces algorithmes. Nous avons ainsi conçu un outil de programmation parallèle à base de squelettes algorithmiques : SKELL BE. Ce modèle de programmation propose une solution originale de génération d'applications à base de métaprogrammation. Il permet, de manière automatisée, d'obtenir de très bonnes performances et de permettre une utilisation efficace de l'architecture, comme le montre la comparaison pour un ensemble de programmes test avec plusieurs autres outils dédiés à ce processeur.
298

Développement d'une nouvelle approche basée objets pour l'extraction automatique de l'information géographique en milieu urbain à partir des images satellitaires à très haute résolution spatiale

Sebari, Imane. January 1900 (has links)
Thèse (Ph.D.)--Université de Sherbrooke (Canada), 2008. / Titre de l'écran-titre (visionné le 7 avril 2009). In ProQuest dissertations and theses. Publié aussi en version papier.
299

Développement de nouveaux outils de traitement et d’analyse pour l’optique adaptative grand champ / Development of new processing and analyses tools for wide field adaptive optics

Bernard, Anaïs 27 October 2017 (has links)
Nous allons assister au cours de la prochaine décennie, à la première lumière des nouveaux Extremely Large Telescopes. Leur grande taille (de 25 à 39 m de diamètre) permet d’augmenter à la fois leur sensibilité et leur résolution angulaire. Cependant, la résolution angulaire d'un télescope terrestre, est toujours limitée par la turbulence atmosphérique. Pour pallier à ce problème, les grands télescopes sont désormais équipés d'instruments d’Optique Adaptative (OA). L’OA est une technique qui permet d’analyser les effets de la turbulence et de les compenser en temps réel à l’aide de miroirs déformables. En complément, la plupart des télescopes de la génération 8-10 m sont maintenant équipés de systèmes d’étoiles lasers qui permettent d’augmenter la proportion du ciel pouvant bénéficier d’une correction par OA: on parle alors d'Optique Adaptative Grand Champ (OAGC). Malgré les excellentes performances de ces systèmes, la correction apportée aux images reste partielle et des résidus de correction limitent encore leur qualité. Pour extraire les meilleurs résultats scientifiques des images issues de l'OAGC, il est donc essentiel d'optimiser les outils de réduction et d'analyse de données. La première partie de cette thèse détaille une analyse astrophysique de données OAGC ayant pour but d'étudier la formation des étoiles massives dans un environnement extra-galactique. Au delà des résultats scientifiques nouveaux, cette étude a permis de mettre en évidence les termes d'erreur limitant l'analyse scientifique de données OAGC. La seconde partie de cette thèse est dédiée au développement d'un nouvel outil de correction de la distorsion permettant de réduire ces termes d'erreurs. / The next decade will see the first light of the new Extremely Large Telescopes. Their large diameter (from 25 to 39 meters across), increases both their sensitivity and their angular resolution. However, angular resolution of all sizes ground-based telescope is always strongly limited by the atmospheric turbulence. To tackle this problem and fully exploit their capabilities, large optical telescopes are now indissociable of their Adaptive Optics (AO) instruments. AO is a technic that consists in analyzing the effects of turbulence on the wavefront and compensating for it in real time, thanks to one or several deformable mirrors in order to restore the initial angular resolution of optical telescopes. In addition, most of the 8-10 meters telescopes are supplied with laser guide stars systems in order to increase the portion of the sky that can benefit for such an AO correction. Such systems are called Wide Field AO (WFAO). However, despite the excellent performance of such systems, the correction performed is not perfect and some residuals still limit the image quality. In order to get the best science results out of the WFAO images, dedicated and optimized reduction and analyses tools are needed. The first part of this document present an astrophysics analyses of WFAO images aiming to study massive star formation in an extra-galactic environment. In addition to new science results, the study carried out on these observations has enable to highlight the critical parameters that limit the scientific analyses of Wide Field AO data. The second part of this document is dedicated to the development of a new distorsion correction tool that aims to reduce these error terms.
300

Développement de méthodes d’analyse d’images dédiées à la caractérisation morphologique et nano structurale des noirs de carbone dans les matrices polymères / Images processing dedicated to the morphological and nano structural characterization of carbon blacks in polymer matrices

Luengo, Lydie 03 March 2017 (has links)
Pour la confection des matériaux polymères à base de caoutchouc, le noir de carbone (NC) reste la charge renforçante la plus utilisée. Sa caractérisation morphologique et nano structurale est essentielle dans la maitrise des propriétés physico-chimiques qu’il confère aux matériaux auxquels il est mélangé. Les analyses classiques ne permettent d’accéder que de façon indirecte et incomplète à ces propriétés. Cette thèse propose une méthode de caractérisation innovante par le couplage d’un détecteur STEM (Scanning Transmission Electron Microscopy) et d’une chaine d’analyse d’images complètement automatique pour identifier les types de NC. Une étude statistique approfondie d’une centaine de caractéristiques morphologiques et structurales des NC a été réalisée sur les 6000 images STEM acquises. Cette étude a permis d’introduire 7 nouveaux descripteurs et de sélectionner les 37 descripteurs les plus discriminants pour la création du modèle d’identification. Pour rendre le processus le plus automatique possible, un algorithme de segmentation non supervisé a été développé et évalué. Cinq classifieurs ont ensuite été entraînés et comparés sur une base de près de 65000 agrégats. Le modèle le plus adapté s’avère les réseaux de neurones avec une identification des NC avoisinant les 100%. L’identification étant réalisée à partir de projections 2D des agrégats via les images STEM, une confrontation statistique valide la capacité des descripteurs 2D à caractériser la structure tridimensionnelle des NC observée par tomographies électroniques. L'approche complète proposée, depuis le protocole de préparation des échantillons et l'acquisition d'images STEM jusqu'à leur classification en passant par les étapes d'analyse d'images, offre une nouvelle méthode de caractérisation fiable des NC (à l’état natif ou au sein de mélanges élastomères) exploitable en routine. / In the field of rubber material development, CB is the most commonly used reinforcing filler. The characterization of CB morphology and nanostructure is therefore crucial to understand the physicochemical properties induced by the introduction of CB in rubber materials. Classical analytical methods only allow indirect and incomplete access to these properties. This PhD offers an innovative method that allows the automatic identification of CB grades by coupling Scanning Transmission Electron Microscopy (STEM) detector and image processing chain. A thorough statistical investigation over a hundred of morphological and structural characteristics of CB was performed on a set of 6000 STEM images. This study has introduced 7 new features and selected the 37 most discriminating descriptors to create the final model. An unsupervised segmentation algorithm has been developed and evaluated in order to build an automatic process as efficient as possible. Then, five classifiers were trained and compared on a base of nearly 65,000 aggregates. It appears that the most suitable descriptor is the Neuron networks as it gives a perfect recognition. As the recognition model is based on 2D projections of CB aggregates, it is necessary to verify that the chosen descriptors are indeed able to correctly characterize the three dimensional structure of CB. The statistical comparison of the 2D descriptors with 3D descriptors extracted from electronic tomography images has been successful, and therefore demonstrates the relevance of the model. The proposed approach, starting from the sample preparation and STEM acquisitions to their classification and through the image analysis steps, offers a new and innovative method for the reliable characterization of CB. This method can be used routinely on raw CB or CB extracted from vulcanizes rubbers.

Page generated in 0.0495 seconds