• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 5
  • Tagged with
  • 12
  • 12
  • 7
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Performance and scalability analysis of parallel systems

Tambouris, Efthimios January 2001 (has links)
No description available.
2

New Algorithms and Architectures for Post-Silicon Validation

Ko, Ho Fai 04 1900 (has links)
<p>To identify design errors that escape pre-silicon verification, post-silicon validation is becoming an important step in the implementation fl.ow of digital integrated circuits. While many debug problems are tackled on testers, there are hard-to-find design errors that are activated only in-system. A key challenge during in-system debugging is to acquire data from internal circuit's nodes in real-time. In this thesis, we propose several techniques to address this problem, ranging from resource-efficient and programmable trigger units to automated selection of trace signals to a distributed architecture for embedded logic analysis.</p><p>Deciding when to acquire data on-chip is done using trigger units. Because there is an inherent tradeoff between the size of the trigger units and the types of events that can be programmed into them, we first explore a resource-efficient and programmable trigger unit implementation. We show how the on-chip buffers used for data acquisition can be leveraged to store information regarding the logic functions that are programmed at runtime as the trigger events. This reduces the requirement in terms of logic resources for the trigger unit, while enlarging the set of programmable trigger events supported by these resources. We also propose a new algorithm to automatically map trigger events onto the proposed trigger unit.</p><p>Next we shift the focus from the trigger units to the sample units available onchip. Once the real-time debug experiment has been completed, the amount of data available to the user is limited by the capacity of the on-chip trace buffers. For logic bugs, where the circuit implementation matches the physical prototype, we show how the structural information from the circuit netlist can be leveraged to expand the amount of data made available off-line to the user. To ensure that data expansion can scale as the amount of debug data that is acquired increases, we propose a fast algorithm that leverages the bitwise parallelism of logic operations available in the instruction set of microprocessors. In a follow-up chapter, we also discuss how trace signals can be automatically selected in order to improve the amount of data that can be restored off-line. To achieve this objective, we propose two new metrics and two new algorithms for automatically identifying the circuit nodes which, if traced, will aid data expansion for the neighboring nodes in the circuit.</p><p>The last contribution of this thesis is concerned with managing multiple trace buffers in complex designs with many logic blocks. We propose a new distributed embedded logic analysis architecture that can dynamically allocate the trace buffers at runtime based on the needs for debug data acquisition coming from multiple logic blocks. We also leverage the real-time offload capability through high-speed trace ports in order to extend the duration of a debug experiment. It is shown how with little investment in on-chip debug logic resources, the length of debug experiments can be expanded for multi-core designs without increasing the number of on-chip trace buffers.</p> / Thesis / Doctor of Philosophy (PhD)
3

Exploration architecturale pour la conception d'un système sur puce de vision robotique, adéquation algorithme-architecture d'un système embarqué temps-réel / Architectural exploration for the design of a robotic vision System-on-Chip, algorithm-architecture adequacy of a real-time embedded system

Lefebvre, Thomas 24 September 2012 (has links)
La problématique de cette thèse se tient à l'interface des domaines scientifiques de l'adéquation algorithme architecture, des systèmes de vision bio-inspirée en robotique mobile et du traitement d'images.Le but est de rendre un robot autonome dans son processus de perception visuelle, en intégrant au sein du robot cette tâche cognitive habituellement déportée sur un serveur de calcul distant.Pour atteindre cet objectif, l'approche de conception employée suit un processus d'adéquation algorithme architecture, où les différentes étapes de traitement d'images sont analysées minutieusement.Les traitements d'image sont modifiés et déployés sur une architecture embarquée de façon à respecter des contraintes d'exécution temps-réel imposées par le contexte robotique.La robotique mobile est un sujet de recherche académique qui s'appuie sur des approches bio-mimétiques.La vision artificielle étudiée dans notre contexte emploie une approche bio-inspirée multi-résolution, basée sur l'extraction et la mise en forme de zones caractéristiques de l'image.Du fait de la complexité de ces traitements et des nombreuses contraintes liées à l'autonomie du robot, le déploiement de ce système de vision nécessite une démarche rigoureuse et complète d'exploration architecturale logicielle et matérielle.Ce processus d'exploration de l'espace de conception est présenté dans cette thèse.Les résultats de cette exploration ont mené à la conception d'une architecture principalement composée d'accélérateurs matériels de traitements (IP) paramétrables et modulaires, qui sera déployée sur un circuit reconfigurable de type FPGA.Ces IP et le fonctionnement interne de chacun d'entre eux sont décrits dans le document.L'impact des paramètres architecturaux sur l'utilisation des ressources matérielles est étudié pour les traitements principaux.Le déploiement de la partie logicielle restante est présenté pour plusieurs plate-formes FPGA potentielles.Les performances obtenues pour cette solution architecturale sont enfin présentées.Ces résultats nous permettent aujourd'hui de conclure que la solution proposée permet d'embarquer le système de vision dans des robots mobiles en respectant les contraintes temps-réel imposées. / This Ph.D Thesis stands at the crossroads of three scientific domains : algorithm-architecture adequacy, bio-inspired vision systems in mobile robotics, and image processing.The goal is to make a robot autonomous in its visual perception, by the integration to the robot of this cognitive task, usually executed on remote processing servers.To achieve this goal, the design approach follows a path of algorithm architecture adequacy, where the different image processing steps of the vision system are minutely analysed.The image processing tasks are adapted and implemented on an embedded architecture in order to respect the real-time constraints imposed by the robotic context.Mobile robotics as an academic research topic based on bio-mimetism.The artificial vision system studied in our context uses a bio-inspired multi-resolution approach, based on the extraction and formatting of interest zones of the image.Because of the complexity of these tasks and the many constraints due to the autonomy of the robot, the implementation of this vision system requires a rigorous and complete procedure for the software and hardware architectural exploration.This processus of exploration of the design space is presented in this document.The results of this exploration have led to the design of an architecture primarly based on parametrable and scalable dedicated hardware processing units (IPs), which will be implemented on an FPGA reconfigurable circuit.These IPs and the inner workings of each of them are described in the document.The impact of their architectural parameters on the FPGA resources is studied for the main processing units.The implementation of the software part is presented for several potential FPGA platforms.The achieved performance for this architectural solution are finally presented.These results allow us to conclude that the proposed solution allows the vision system to be embedded in mobile robots within the imposed real-time constraints.
4

Architecture matérielle pour la reconstruction temps réel d'images par focalisation en tout point (FTP) / Hardware architecture for real-time imaging towards Total Focusing Method (TFM )

Njiki, Mickaël 27 September 2013 (has links)
Le contrôle non destructif (CND) a pour but de détecter et de caractériser d’éventuels défauts présents dans des pièces mécaniques. Les techniques ultrasonores actuelles utilisent des capteurs multiéléments associés à des chaînes d’instrumentations et d’acquisitions de données multi capteurs en parallèles. Compte tenu de la masse de données à traiter, l’analyse de ces dernières est généralement effectuée hors ligne. Des travaux en cours, au Commissariat à l’Energie Atomique (CEA), consistent à développer et évaluer différentes méthodes d’imageries avancées, basées sur la focalisation synthétique. Les algorithmes de calculs induits nécessitent d’importantes opérations itératives sur un grand volume de données, issues d’acquisition multiéléments. Ceci implique des temps de calculs important, imposant un traitement en différé. Les contraintes industrielles de caractérisation de pièces mécaniques in situ imposent de réaliser la reconstruction d’images lors de la mesure et en temps réel. Ceci implique d’embarquer dans l’appareil de mesure, toute l’architecture de calcul sur les données acquises des capteurs. Le travail de thèse a donc consisté à étudier une famille d’algorithmes de focalisation synthétique pour une implantation temps réel sur un instrument de mesure permettant de réaliser l’acquisition de données. Nous avons également étudié une architecture dédiée à la reconstruction d’images par la méthode de Focalisation en Tout Point (FTP). Ce travail a été réalisé dans le cadre d’une collaboration avec l’équipe ACCIS de l’institut d’Electronique Fondamentale, Université de Paris Sud. Pour ce faire, notre démarche s’est inspirée de la thématique de recherche d’Adéquation Algorithme Architecture (A3). Notre méthodologie, est basée sur une approche expérimentale consistant dans un premier temps en une décomposition de l’algorithme étudié en un ensemble de blocs fonctionnels (calculs/transferts). Cela nous a permis de réaliser l’extraction des blocs pertinents de calculs à paralléliser et qui ont une incidence majeure sur les temps de traitement. Nous avons orienté notre stratégie de développement vers une conception flot de donnée. Ce type de modélisation permet de favoriser les flux de données et de réduire les flux de contrôles au sein de l’architecture matérielle. Cette dernière repose sur une plateforme multi-FPGA. La conception et l’évaluation de telles architectures ne peuvent se faire sans la mise en place d’outils logiciels d’aide à la validation tout au long du processus de la conception à l’implantation. Ces outils faisant partie intégrante de notre méthodologie. Les modèles architecturaux des briques de calculs ont été validés au niveau fonctionnel puis expérimental, grâce à la chaîne d’outils développée. Cela inclus un environnement de simulation nous permettant de valider sur tables les briques partielles de calculs ainsi que le contrôle associé. Enfin, cela a nécessité la conception d’outils de génération automatique de vecteurs de tests, à partir de données de synthèses (issues de l’outil simulation CIVA développé par le CEA) et de données expérimentales (à partir de l’appareil d’acquisition de la société M2M-NDT). Enfin, l’architecture développée au cours de ce travail de thèse permet la reconstruction d’images d’une résolution de 128x128 pixels, à plus de 10 images/sec. Ceci est suffisant pour le diagnostic de pièces mécaniques en temps réel. L’augmentation du nombre d’éléments capteurs ultrasonores (128 éléments) permet des configurations topologiques plus évoluées (sous forme d’une matrice 2D), ouvrant ainsi des perspectives vers la reconstruction 3D (d’un volume d’une pièce). Ce travail s’est soldé par une mise en œuvre validée sur l’instrument de mesure développé par la société M2M-NDT. / Non-destructive Evaluation (NDE) regroups a set of methods used to detect and characterize potential defects in mechanical parts. Current techniques uses ultrasonic phased array sensors associated with instrumentation channels and multi-sensor data acquisition in parallel. Given the amount of data to be processed, the analysis of the latter is usually done offline. Ongoing work at the French “Commissariat à l’Energie Atomique” (CEA), consist to develop and evaluate different methods of advanced imaging based on synthetic focusing. The Algorithms induced require extensive iterative operations on a large volume of data from phased array acquisition. This involves important time for calculations and implies offline processing. However, the industrial constraint requires performing image reconstruction in real time. This involves the implementation in the measuring device, the entire computing architecture on acquired sensor data. The thesis has been to study a synthetic focusing algorithm for a real-time implementation in a measuring instrument used to perform ultrasonic data acquisition. We especially studied an image reconstruction algorithm called Total Focusing Method (TFM). This work was conducted as part of collaboration with the French Institute of Fundamental Electronics Institute team of the University of Paris Sud. To do this, our approach is inspired by research theme called Algorithm Architecture Adequation (A3). Our methodology is based on an experimental approach in the first instance by a decomposition of the studied algorithm as a set of functional blocks. This allowed us to perform the extraction of the relevant blocks to parallelize computations that have a major impact on the processing time. We focused our development strategy to design a stream of data. This type of modeling can facilitate the flow of data and reduce the flow of control within the hardware architecture. This is based on a multi- FPGA platform. The design and evaluation of such architectures cannot be done without the introduction of software tools to aid in the validation throughout the process from design to implementation. These tools are an integral part of our methodology. Architectural models bricks calculations were validated functional and experimental level, thanks to the tool chain developed. This includes a simulation environment allows us to validate partial calculation blocks and the control associated. Finally, it required the design of tools for automatic generation of test vectors, from data summaries (from CIVA simulation tool developed by CEA) and experimental data (from the device to acquisition of M2M –NDT society). Finally, the architecture developed in this work allows the reconstruction of images with a resolution of 128x128 pixels at more than 10 frames / sec. This is sufficient for the diagnosis of mechanical parts in real time. The increase of ultrasonic sensor elements (128 elements) allows more advanced topological configurations (as a 2D matrix) and providing opportunities to 3D reconstruction (volume of a room). This work has resulted in implementation of validated measurement instrument developed by M2M -NDT.
5

Adéquation Algorithme Architecture et modèle de programmation pour l'implémentation d'algorithmes de traitement du signal et de l'image sur cluster multi-GPU / Programming model for the implementation of 2D-3D image processing applications on a hybrid CPU-GPU cluster.

Boulos, Vincent 18 December 2012 (has links)
Initialement con¸cu pour d´echarger le CPU des tˆaches de rendu graphique, le GPU estdevenu une architecture massivement parall`ele adapt´ee au traitement de donn´ees volumineuses.Alors qu’il occupe une part de march´e importante dans le Calcul Haute Performance, uned´emarche d’Ad´equation Algorithme Architecture est n´eanmoins requise pour impl´ementerefficacement un algorithme sur GPU.La contribution de cette th`ese est double. Dans un premier temps, nous pr´esentons legain significatif apport´e par l’impl´ementation optimis´ee d’un algorithme de granulom´etrie(l’ordre de grandeur passe de l’heure `a la minute pour un volume de 10243 voxels). Un mod`eleanalytique permettant d’´etablir les variations de performance de l’application de granulom´etriesur GPU a ´egalement ´et´e d´efini et pourrait ˆetre ´etendu `a d’autres algorithmes r´eguliers.Dans un second temps, un outil facilitant le d´eploiement d’applications de Traitementdu Signal et de l’Image sur cluster multi-GPU a ´et´e d´evelopp´e. Pour cela, le champ d’actiondu programmeur est r´eduit au d´ecoupage du programme en tˆaches et `a leur mapping sur les´el´ements de calcul (GPP ou GPU). L’am´elioration notable du d´ebit sortant d’une applicationstreaming de calcul de carte de saillence visuelle a d´emontr´e l’efficacit´e de notre outil pourl’impl´ementation d’une solution sur cluster multi-GPU. Afin de permettre un ´equilibrage decharge dynamique, une m´ethode de migration de tˆaches a ´egalement ´et´e incorpor´ee `a l’outil. / Originally designed to relieve the CPU from graphics rendering tasks, the GPU has becomea massively parallel architecture suitable for processing large amounts of data. While it haswon a significant market share in the High Performance Computing domain, an Algorithm-Architecture Matching approach is still necessary to efficiently implement an algorithm onGPU.The contribution of this thesis is twofold. Firstly, we present the significant gain providedby the implementation of a granulometry optimized algorithm (computation time decreasesfrom several hours to less than minute for a volume of 10243 voxels). An analytical modelestablishing the performance variations of the granulometry application is also presented. Webelieve it can be expanded to other regular algorithms.Secondly, the deployment of Signal and Image processing applications on multi-GPUcluster can be a tedious task for the programmer. In order to help him, we developped alibrary that reduces the scope of the programmer’s contribution in the development. Hisremaining tasks are decomposing the application into a Data Flow Graph and giving mappingannotations in order for the tool to automatically dispatch tasks on the processing elements(GPP or GPU). The throughput of a visual sailency streaming application is then improvedthanks to the efficient implementation brought by our tool on a multi-GPU cluster. In orderto permit dynamic load balancing, a task migration method has also been incorporated into it.
6

Système de sécurité biométrique multimodal par imagerie, dédié au contrôle d’accès / Multimodal biometric security system based on vision, dedicated to access control

Bonazza, Pierre 21 June 2019 (has links)
Les travaux de recherche de cette thèse consistent à mettre en place des solutions performantes et légères permettant de répondre aux problèmes de sécurisation de produits sensibles. Motivé par une collaboration avec différents acteurs au sein du projet Nuc-Track,le développement d'un système de sécurité biométrique, possiblement multimodal, mènera à une étude sur différentes caractéristiques biométriques telles que le visage, les empreintes digitales et le réseau vasculaire. Cette thèse sera axée sur une adéquation algorithme et architecture, dans le but de minimiser la taille de stockage des modèles d'apprentissages tout en garantissant des performances optimales. Cela permettra leur stockage sur un support personnel, respectant ainsi les normes de vie privée. / Research of this thesis consists in setting up efficient and light solutions to answer the problems of securing sensitive products. Motivated by a collaboration with various stakeholders within the Nuc-Track project, the development of a biometric security system, possibly multimodal, will lead to a study on various biometric features such as the face, fingerprints and the vascular network. This thesis will focus on an algorithm and architecture matching, with the aim of minimizing the storage size of the learning models while guaranteeing optimal performances. This will allow it to be stored on a personal support, thus respecting privacy standards.
7

Real-time multi-target tracking : a study on color-texture covariance matrices and descriptor/operator switching

Romero Mier y Teran, Andrés 03 December 2013 (has links) (PDF)
Visual recognition is the problem of learning visual categories from a limited set of samples and identifying new instances of those categories, the problem is often separated into two types: the specific case and the generic category case. In the specific case the objective is to identify instances of a particular object, place or person. Whereas in the generic category case we seek to recognize different instances that belong to the same conceptual class: cars, pedestrians, road signs and mugs. Specific object recognition works by matching and geometric verification. In contrast, generic object categorization often includes a statistical model of their appearance and/or shape.This thesis proposes a computer vision system for detecting and tracking multiple targets in videos. A preliminary work of this thesis consists on the adaptation of color according to lighting variations and relevance of the color. Then, literature shows a wide variety of tracking methods, which have both advantages and limitations, depending on the object to track and the context. Here, a deterministic method is developed to automatically adapt the tracking method to the context through the cooperation of two complementary techniques. A first proposition combines covariance matching for modeling characteristics texture-color information with optical flow (KLT) of a set of points uniformly distributed on the object . A second technique associates covariance and Mean-Shift. In both cases, the cooperation allows a good robustness of the tracking whatever the nature of the target, while reducing the global execution times .The second contribution is the definition of descriptors both discriminative and compact to be included in the target representation. To improve the ability of visual recognition of descriptors two approaches are proposed. The first is an adaptation operators (LBP to Local Binary Patterns ) for inclusion in the covariance matrices . This method is called ELBCM for Enhanced Local Binary Covariance Matrices . The second approach is based on the analysis of different spaces and color invariants to obtain a descriptor which is discriminating and robust to illumination changes.The third contribution addresses the problem of multi-target tracking, the difficulties of which are the matching ambiguities, the occlusions, the merging and division of trajectories.Finally to speed algorithms and provide a usable quick solution in embedded applications this thesis proposes a series of optimizations to accelerate the matching using covariance matrices. Data layout transformations, vectorizing the calculations (using SIMD instructions) and some loop transformations had made possible the real-time execution of the algorithm not only on Intel classic but also on embedded platforms (ARM Cortex A9 and Intel U9300).
8

Optimization and implementation of bio-inspired feature extraction frameworks for visual object recognition / Optimisation et implémentation de méthodes bio-inspirées d'extraction de caractéristiques pour la reconnaissance d'objets visuels

Boisard, Olivier 10 November 2016 (has links)
L'industrie a des besoins croissants en systèmes dits intelligents, capable d'analyserles signaux acquis par des capteurs et prendre une décision en conséquence. Cessystèmes sont particulièrement utiles pour des applications de vidéo-surveillanceou de contrôle de qualité. Pour des questions de coût et de consommation d'énergie,il est souhaitable que la prise de décision ait lieu au plus près du capteur. Pourrépondre à cette problématique, une approche prometteuse est d'utiliser des méthodesdites bio-inspirées, qui consistent en l'application de modèles computationels issusde la biologie ou des sciences cognitives à des problèmes industriels. Les travauxmenés au cours de ce doctorat ont consisté à choisir des méthodes d'extractionde caractéristiques bio-inspirées, et à les optimiser dans le but de les implantersur des plateformes matérielles dédiées pour des applications en vision par ordinateur.Tout d'abord, nous proposons un algorithme générique pouvant être utilisés dans différentscas d'utilisation, ayant une complexité acceptable et une faible empreinte mémoire.Ensuite, nous proposons des optimisations pour une méthode plus générale, baséesessentiellement sur une simplification du codage des données, ainsi qu'une implantationmatérielle basées sur ces optimisations. Ces deux contributions peuvent par ailleurss'appliquer à bien d'autres méthodes que celles étudiées dans ce document. / Industry has growing needs for so-called “intelligent systems”, capable of not only ac-quire data, but also to analyse it and to make decisions accordingly. Such systems areparticularly useful for video-surveillance, in which case alarms must be raised in case ofan intrusion. For cost saving and power consumption reasons, it is better to perform thatprocess as close to the sensor as possible. To address that issue, a promising approach isto use bio-inspired frameworks, which consist in applying computational biology modelsto industrial applications. The work carried out during that thesis consisted in select-ing bio-inspired feature extraction frameworks, and to optimize them with the aim toimplement them on a dedicated hardware platform, for computer vision applications.First, we propose a generic algorithm, which may be used in several use case scenarios,having an acceptable complexity and a low memory print. Then, we proposed opti-mizations for a more global framework, based on precision degradation in computations,hence easing up its implementation on embedded systems. Results suggest that whilethe framework we developed may not be as accurate as the state of the art, it is moregeneric. Furthermore, the optimizations we proposed for the more complex frameworkare fully compatible with other optimizations from the literature, and provide encourag-ing perspective for future developments. Finally, both contributions have a scope thatgoes beyond the sole frameworks that we studied, and may be used in other, more widelyused frameworks as well.
9

Approche haut niveau pour l’accélération d’algorithmes sur des architectures hétérogènes CPU/GPU/FPGA. Application à la qualification des radars et des systèmes d’écoute électromagnétique / High-Level Approach for the Acceleration of Algorithms on CPU/GPU/FPGA Heterogeneous Architectures. Application to Radar Qualification and Electromagnetic Listening Systems

Martelli, Maxime 13 December 2019 (has links)
A l'heure où l'industrie des semi-conducteurs fait face à des difficultés majeures pour entretenir une croissance en berne, les nouveaux outils de synthèse de haut niveau repositionnent les FPGAs comme une technologie de premier plan pour l'accélération matérielle d'algorithmes face aux clusters à base de CPUs et GPUs. Mais en l’état, pour un ingénieur logiciel, ces outils ne garantissent pas, sans expertise du matériel sous-jacent, l’utilisation de ces technologies à leur plein potentiel. Cette particularité peut alors constituer un frein à leur démocratisation. C'est pourquoi nous proposons une méthodologie d'accélération d'algorithmes sur FPGA. Après avoir présenté un modèle d'architecture haut niveau de cette cible, nous détaillons différentes optimisations possibles en OpenCL, pour finalement définir une stratégie d'exploration pertinente pour l'accélération d'algorithmes sur FPGA. Appliquée sur différents cas d'étude, de la reconstruction tomographique à la modélisation d'un brouillage aéroporté radar, nous évaluons notre méthodologie suivant trois principaux critères de performance : le temps de développement, le temps d'exécution, et l'efficacité énergétique. / As the semiconductor industry faces major challenges in sustaining its growth, new High-Level Synthesis tools are repositioning FPGAs as a leading technology for algorithm acceleration in the face of CPU and GPU-based clusters. But as it stands, for a software engineer, these tools do not guarantee, without expertise of the underlying hardware, that these technologies will be harnessed to their full potential. This can be a game breaker for their democratization. From this observation, we propose a methodology for algorithm acceleration on FPGAs. After presenting a high-level model of this architecture, we detail possible optimizations in OpenCL, and finally define a relevant exploration strategy for accelerating algorithms on FPGA. Applied to different case studies, from tomographic reconstruction to the modelling of an airborne radar jammer, we evaluate our methodology according to three main performance criteria: development time, execution time, and energy efficiency.
10

Ultralow-Power and Robust Implantable Neural Interfaces: An Algorithm-Architecture-Circuit Co-Design Approach

Narasimhan, Seetharam 26 June 2012 (has links)
No description available.

Page generated in 0.0725 seconds