• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 5
  • Tagged with
  • 29
  • 21
  • 21
  • 16
  • 16
  • 15
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares / Image processing algorithm performance prediction on different hardware architectures

Soucies, Nicolas 07 May 2015 (has links)
Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine. / In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms.
12

Un périphérique d'ordinateur à l'usage des musiciens : problèmes d'interprétation de la musique et d'édition de partitions

Jaeger, Denis 17 April 1974 (has links) (PDF)
.
13

Algorithmes d'implantation et tracé des connexions par fils isolés

Floricica, Ion 28 June 1974 (has links) (PDF)
.
14

Conception des filtres numériques et analyse des erreurs résultant de leur réalisation en arithmétique fixe

Sankar, Subramaniam 01 January 1973 (has links) (PDF)
.
15

Développement d’outils prédictifs de la teneur en composés sensibles à l’oxydation au cours de la conservation dans les matrices nutritionnelles / Development of predictive tools for the content of oxidation-sensitive compounds during storage in nutritional matrices

Yessaad, Mouloud 12 December 2018 (has links)
Lors de leur conservation, les principes actifs (médicaments, nutriments) peuvent être sujets à une dégradation susceptible de modifier leurs propriétés initiales et les rendre non disponibles. Aussi, les industriels et les pharmaciens hospitaliers réalisant des préparations pharmaceutiques et/ou des compléments alimentaires ont-ils la nécessité de réaliser des études de stabilité. Ces études sont longues et coûteuses car elles doivent tenir compte de tous les paramètres environnementaux susceptibles d’influencer la stabilité du principe actif, de la matrice et du conditionnement. L’objectif de cette thèse consiste à développer un outil qui permet d’estimer les taux de dégradation des vitamines et de se projeter sur la durée de vie de principes actifs nutritionnels en se basant sur l’utilisation des modèles de calcul intégrant à la fois les caractéristiques des produits, matrice et des conditions de conservation. Le projet s’est déroulé en plusieurs phases en ciblant les vitamines hydrosolubles. Tout d’abord, un développement et validation d’une méthode de dosage chromatographique qui permet de quantifier toutes les vitamines en une seule analyse sans interférence avec les éventuels produits de dégradation. Une étude de l’influence des paramètres les plus importants a été réalisée via un plan d’expériences. Les cinétiques de dégradation ont été étudiées et modélisées en plusieurs approches. A partir du modèle le plus adapté, un premier niveau de simulation a été conçu permettant de déterminer les facteurs d’influence pertinents dans la dégradation des vitamines au regard des données exploitables. Le livrable, le calculateur, devrait ainsi permettre de guider les utilisateurs industriels et hospitaliers dans le choix des conditions d’étude de vieillissement accéléré. / When stored, the active ingredients (drugs, nutrients) may be subject to degradation that may change their original properties and make them unavailable. In addition, manufacturers and hospital pharmacists carrying out pharmaceutical preparations and / or dietary supplements have the need to carry out stability studies. These studies are long and costly because they must consider all the environmental parameters likely to influence the stability of the active principle, the matrix and the packaging. The aim of this thesis is to develop a tool that allows to estimate the degradation rates of vitamins and to project on the life span of nutritional active principles based on the use of computational models integrating at the same time product characteristics, matrix and storage conditions. The project took place in several phases targeting the water-soluble vitamins. First, a development and validation of a chromatographic assay method that quantifies all vitamins in a single analysis without interference with any degradation products. A study of the influence of the most important parameters was carried out with a design of experiments. The kinetics of degradation have been studied and modeled in several approaches. From the most appropriate model, a first simulation level was designed to determine the relevant influencing factors in the degradation of vitamins in terms of exploitable data. The deliverable, the calculator, should thus help guide industrial and hospital users in the choice of accelerated aging study conditions.
16

Conception et validation de systèmes informatiques à haute sûreté de fonctionnement

Pilaud, Eric 23 November 1982 (has links) (PDF)
Un système de description des calculateurs à haute sûreté de fonctionnement est proposé et appliqué à des calculateurs existants. Cette description nous conduit à proposer une démarche de conception devant faciliter la validation. Une methode d'évaluation de la sûreté de fonctionnement, destinée à fournir des évaluations pour la certification, est ensuite étudiée. Elle s'appuie sur une démarche non optimiste et permet de prendre en compte certains paramètres difficilement quantifiables (latence d'erreur par exemple). Les deux aspects de cette étude, conception et évaluation, sont appliqués à un calculateur tolérant les pannes développées dans le cadre de ce travail. (CARLl)
17

HARMONIE : un outil hardware pour la mesure des performances des calculateurs

Gaudeul, Bruno 15 December 1980 (has links) (PDF)
Les techniques de saisie des performances ne sont encore qu'à leurs débuts. On fait le point sur l'utilisation d'outils câblés dénommés "logimetres" et particulièrement sur HARMONIE. On situe ces outils parmi d'autres moyens, et on étudie la confiance qu'on peut accorder à leurs résultats.
18

Analyse numérique de quelques problèmes relatifs aux ondes longues en eau peu profonde

Chalabi, Abdallah 11 June 1980 (has links) (PDF)
Etude physique des ondes longues. Origine du système de Saint Venant. Résolution numérique par une methode de différences finies dans le cas unidimensionnel et pour un domaine parabolique. Traitement numérique du cas bidimensionnel en utilisant une methode d'éléments finis pour les variables d'espace et de différences finies, pour la variable temps. Problème d'un fluide visqueux : établissement de l'existence et de l'unicité de la solution. Etude théorique du probleme des ondes longues semi-linéarisées dans un fluide parfait.
19

Calcul et commande hiérarchisés des systèmes dynamiques : mis en oeuvre numérique et hybride

Hurteau, Régis 29 September 1977 (has links) (PDF)
METHODE DE DECOMPOSITION COORDINATION: STRUCTURES A DEUX NIVEAUX. SYSTEME LINEAIRE A CRITERE QUADRATIQUE: OBTENTION D'UNE LOI DE COMMANDE EN BOUCLE FERMEE. COMMANDE HIERARCHISEE EN BOUCLE FERMEE DES SYSTEMES DYNAMIQUES NON LINEAIRES. AMELIORATION EN LIGNE DE LA LOI DE COMMANDE.
20

SPY : un système de contrôle : la mise au point de systèmes de programmation grâce à un couplage de machines virtuelles

Lefebvre, Patyrick 15 July 1972 (has links) (PDF)
.

Page generated in 0.0554 seconds