• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 47
  • 6
  • 4
  • 4
  • 1
  • Tagged with
  • 176
  • 74
  • 53
  • 46
  • 30
  • 29
  • 25
  • 20
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Implementation trade-offs for FGPA accelerators / Compromis pour l'implémentation d'accélérateurs sur FPGA

Deest, Gaël 14 December 2017 (has links)
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation. / Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case.
122

Vers une stratégie unifiée pour la commande des véhicules aériens / Towards a unified approach for the control of aerial vehicles

Pucci, Daniele 11 April 2013 (has links)
Au cours du siècle dernier, la communauté scientifique a traité le contrôle des véhicules aériens principalement par l'élaboration de stratégies ad hoc, mais aucune approche unifiée n'a été développé jusqu'à présent. Cette thèse participe à l'élaboration d'une approche unifiée pour le contrôle des véhicules aériens en prenant en compte les forces aérodynamiques dans la conception de la commande. Nous supposons les effets aérodynamiques de rotation et les effets non stationnaires négligeables. Les actionneurs du véhicule sont supposés être composés d'une force de poussé fixée au corps pour le mouvement en translation, et d'un couple de contrôle pour la régulation d'attitude. Cette thèse se concentre ensuite sur la boucle de guidage, traitant du contrôle de la vitesse linéaire. L'un des principaux objectifs a été de déterminer la façon de réguler la force de poussée et l'orientation du véhicule pour compenser les forces extérieures. Tout d'abord nous abordons la modélisation, l'analyse et le contrôle de la dynamique longitudinale de l'avion. Ensuite nous étendons certaines de ces études aux mouvements tridimensionnels d'avions au corps symétrique, tels que les missiles. Un résultat original de cette thèse est de préciser les conditions sur la force aérodynamique permettant de reformuler le problème du contrôle dans celui de la commande d'un corps sphérique, pour lequel des résultats de stabilité peuvent être démontrés. Les lois de commande proposées intègrent des termes intégraux et anti-wind up sans reposer sur une politique de commutation entre plusieurs lois de commande. / Over the last century, the scientific community has dealt with the control of flying machines by mainly developing different strategies in relation to different classes of aircraft, and no unified control approach has been developed so far. The present thesis contributes towards the development of a unified control approach for aerial vehicles by maintaining aerodynamic forces in the control design. It is assumed, however, that the aerodynamic effects of rotational and unsteady motions are negligible, and that the means of actuation for an aerial vehicle consist of a body-fixed thrust force for translational motion and a control torque for attitude monitoring. This thesis then focuses on the guidance loop of the control problem. One of the main objectives has been to determine how to regulate the thrust intensity and the vehicle orientation to compensate for the orientation-dependent external forces. In particular, the modeling, analysis, and control of the longitudinal aircraft dynamics is first addressed. Then, some of these studies are extended to three-dimensional motions of symmetric aircraft, such as missile-like bodies. An original outcome of this thesis is to state conditions on the aerodynamic force that allow the control problem to be recasted into that of controlling a spherical body. In this case, strong stability results can be shown. The proposed control laws incorporate integral and anti-wind up terms and do not rely on a switching policy between several control laws.
123

Etude dynamique d'un système de stockage par chaleur latente liquide-solide : application au véhicule électrique / Dynamic study of a liquid-solid latent heat storage unit : application to electric vehicle

Osipian, Remy 29 June 2018 (has links)
Ce travail porte sur le développement d’un système de stockage de chaleur en vue d’assurer le confort thermique de l’habitacle d’un véhicule électrique. Ce dispositif, appelé batterie thermique, se présente comme un réservoir composé d’un lit fixe de matériaux à changement de phase (MCP). Ce type de matériau a la propriété d’emmagasiner de fortes quantités de chaleur (latente) sous de faibles volumes, permettant d’envisager un système très compact. A l’échelle du matériau, une investigation sur la cinétique des transferts thermiques au sein de plusieurs MCPs a été évaluée. Une expression phénoménologique décrivant l’évolution temporelle de la température d’un MCP en phase de solidification a été proposée. Elle permet d’estimer la durée de solidification du matériau en fonction de ses caractéristiques géométriques et thermiques. A l’échelle du système, un prototype de batterie thermique a été réalisé et la dynamique des transferts en phase de stockage et déstockage a été étudiée. Les durées de stockage et déstockage suivent des lois de puissance avec le débit imposé ; les pertes de charges s’avèrent insignifiantes. En parallèle, un modèle numérique simulant le comportement dynamique et thermique d’un lit fixe de particules de MCP a été développé et validé sur les données expérimentales. Il pourra être utilisé pour le dimensionnement du futur prototype et servira également d’outil pour optimiser les performances de la batterie en ajustant les paramètres de contrôle / This study focuses on the development of a heat storage system used to ensure passenger compartment thermal comfort in an electric vehicle. This device, called a thermal battery, is a packed bed latent heat tank filled with phase change materials (PCM). This type of material has the property of storing large amounts of latent heat in small volumes, allowing a very compact system. At the material scale, an investigation on heat transfer dynamics within several PCM was studied. A phenomenological expression which depicts the temporal evolution of the PCM temperature for a solidification phase was suggested. This allows the estimation of the material solidification duration in terms of geometric and thermal characteristics. At the system scale, a thermal battery prototype was set up and the thermal transfer dynamics during the charging and discharging phases were studied. The charging and discharging durations are fitted by power laws in terms of the flow rate; the pressure drops are insignificant. Simultaneously, a numerical model which simulates the dynamic and thermal behavior of a PCM particle fixed bed was developed and validated with the experimental data. It can be used for future prototype sizing and will also serve as a tool to optimize the performance of the battery by setting the control parameters
124

Modélisation, simulation et optimisation des réacteurs de production d'acroléine à partir du propylène ou du glycérol / Modeling, simulation and optimization of reactors for acroléin production from propylene or glycerol

Lei, Minghai 03 September 2014 (has links)
Ce travail est consacré à la modélisation, simulation et optimisation des réacteurs catalytiques gaz/solide à lit fixe multitubulaire pour la production de l'acroléine à partir du propylène ou du glycérol. La première partie du travail traite de l'oxydation catalytique du propylène en acroléine. Différents modèles cinétiques et du réacteur ont été développés. Les paramètres inconnus mis en jeu sont identifiés à partir des mesures expérimentales. Un ensemble de variables opératoires qui maximisent les rendements des produits clés ont ensuite été déterminés en utilisant le modèle validé. La seconde partie du travail concerne la production d'acroléine à partir du glycérol. Elle comprend une étape de déshydratation du glycérol et une étape de régénération du catalyseur. Un modèle hétérogène bidimensionnel a été développé. Pour la régénération du catalyseur, un modèle cinétique qui permet d'identifier la concentration et les compositions initiales du coke et de prédire le processus de sa combustion a été développé et identifié à l'aide de mesures expérimentales. L'optimisation de l'étape de régénération du catalyseur a ensuite été effectuée. Pour l'étape de déshydratation, un modèle cinétique qui permet de simuler simultanément la déshydratation du glycérol, la formation du coke et la variation de l'activité du catalyseur a été développé et identifié à l'aide de mesures expérimentales. / In this work, modeling, simulation and optimization of multitubular gas/solid fixed bed catalytic reactors for acrolein production from propylene or from glycerol are investigated. The first part of the work deals with the catalytic oxidation of propylene to acrolein. Different kinetic and reactor models are developed and the unknown parameters involved are identified from experimental measurements. A set of operating variables that maximize the yield of key products then determined using the validated reactor model. The second part of the work is devoted to the production of acrolein from glycerol. This part consists of two steps: a glycerol dehydration step and a catalyst regeneration step. A two-dimensional heterogeneous model is developed. In the catalyst regeneration step, a kinetic model enabling the identification of the concentration and initial compositions of the coke and the prediction of its combustion process is developed and identified using experimental measurements. The optimization of the operating conditions of the regeneration step is then carried out. In the dehydration step, a kinetic model that allows the simultaneous simulation of glycerol dehydration, coke formation and catalyst activity variation is developed and identified by means of experimental measurements.
125

Architectures matérielles pour la technologie WCDMA étendue aux systèmes mulit-antennes

Saïdi, Taofik 08 July 2008 (has links) (PDF)
Depuis une dizaine d'années, l'avènement des techniques multi-antennes (ou MIMO) pour les communications sans fil, mobiles ou fixes, a révolutionné les possibilités offertes pour de nombreux domaines d'application des télécommunications. La disposition de plusieurs antennes de part et d'autre du lien augmente considérablement la capacité des systèmes sans fil. Cependant, les al- gorithmes numériques à mettre en œuvre pour réaliser ces systèmes sont autrement complexes et constituent un challenge quant à la définition d'architectures matérielles performantes. L'objectif du travail présent repose précisément sur la définition optimale de solutions architecturales, dans un contexte CDMA, pour contrer cette problématique. Le premier aspect de ce travail porte sur une étude approfondie des algorithmes spatio- temporels et des méthodes de conception en vue d'une implantation matérielle efficace. De nom- breux schémas de détection sont proposés dans la littérature et sont applicables suivant trois critères qui sont : la qualité de service, le débit binaire et la complexité algorithmique. Cette dernière constitue une contrainte forte pour une mise en application à faible coût de terminaux mobiles intégrant ces applications. Aussi, il est nécessaire de disposer d'outils performants pour simuler, évaluer et affiner (prototypage rapide) ces nouveaux systèmes, candidats probables pour les télécommunications de quatrième génération. Le second aspect concerne la réalisation d'un transcepteur multi-antennes sans codage de ca- nal, intégrant la technologie d'accès multiple par répartition de codes dans le cas d'un canal large bande. Un système mono-antenne WCDMA, généralisable à un nombre quelconque d'antennes, a été intégré et simulé au sein de la plate-forme de prototypage rapide Lyrtech. L'architecture développée intègre les principaux modules du traitement en bande de base, à savoir le filtrage de Nyquist, la détection des multiples trajets suivie de l'étape de détection. Le prototype MIMO- WCDMA développé est caractérisé par sa flexibilité suivant le nombre de voies entrantes, le for- mat d'entrée des échantillons, les caractéristiques du canal sans fil et la technologie ciblée (ASIC, FPGA). Le troisième aspect se veut plus prospectif en détaillant de nouveaux mécanismes pour réduire le coût matériel des systèmes multi-antennes. Le principe d'allocation adaptative de la virgule fixe est présenté dans le but d'adapter le codage des données suivant les caractéristiques du canal sans fil et de minimiser en conséquence la complexité du circuit. D'autre part, le concept d'ar- chitectures adaptatives est proposé afin de minimiser l'énergie consommée au sein d'un système embarqué suivant le contexte d'application.
126

Etude de l' Oxydation de différents types d'hydrocarbures par des procédés utilisant des techniques de déharges électriques non- thermiques à pression atmosphérique: application à la problématique du démarrage à froid

Redolfi, Michaël 03 December 2007 (has links) (PDF)
Ce travail a pour objectif d'explorer l'efficacité des procédés plasmas à oxyder les hydrocarbures émis à l'échappement moteur lors du démarrage à froid. Nous avons étudié la dégradation d'un composé modèle : l'acétylène. Nous avons montré qu'il était possible de l'oxyder quantitativement par des décharges pauvres en oxygène en utilisant une configuration Fil-Cylindre. Les principaux produits d'oxydation sont CO et CO2. Une étude cinétique a montré que la principale voie d'élimination de l'acétylène est l'oxydation de celui-ci avec l'oxygène atomique. Nous avons également étudié la dégradation de composés plus complexes : le toluène et le naphtalène. La dégradation s'avère plus efficace pour le naphtalène que pour le toluène. Une dernière étude a montré que la nature d'un lit fixe de matériau (Al2O3, TiO2...) au sein de la décharge pouvait affecter les performances du procédé d'oxydation en influençant le mécanisme de propagation de la décharge ou par le biais de la chimie de surface.
127

Problèmes d'inclusions couplées : Éclatement, algorithmes et applications

Briceno-Arias, Luis M. 27 May 2011 (has links) (PDF)
Cette thèse est consacrée à la résolution de problèmes d'analyse non linéaire multivoque dans lesquels plusieurs variables interagissent. Le problème générique est modélisé par une inclusion vis-à-vis d'une somme d'opérateurs monotones sur un espace hilbertien produit. Notre objectif est de concevoir des nouveaux algorithmes pour résoudre ce problème sous divers jeux d'hypothèses sur les opérateurs impliqués et d'étudier le comportement asymptotique des méthodes élaborées. Une propriété commune aux algorithmes est le fait qu'ils procèdent par éclatement en ceci que les opérateurs monotones et, le cas échéant, les opérateurs linéaires constitutifs du modèle agissent indépendamment au sein de chaque itération. Nous abordons en particulier le cas où les opérateurs monotones sont des sous-différentiels de fonctions convexes, ce qui débouche sur de nouveaux algorithmes de minimisation. Les méthodes proposées unifient et dépassent largement l'état de l'art. Elles sont appliquées aux inclusions monotones composites en dualité, aux problèmes d'équilibre, au traitement du signal et de l'image, à la théorie des jeux, à la théorie du trafic, aux équations d'évolution, aux problèmes de meilleure approximation et à la décomposition de domaine dans les équations aux dérivées partielles.
128

Application de la théorie des nombres à la conception optimale et à l'implémentation de très faible complexité des filtres numériques

Daher, Ali 08 December 2009 (has links) (PDF)
L'objectif principal de notre étude est de développer des algorithmes rapides pour une conception optimale et une implantation de très faible complexité des filtres numériques. Le critère d'optimisation choisi est celui de la minimisation de l'erreur quadratique moyenne. Ainsi, nous avons étudié et développé de nouveaux algorithmes de synthèse des filtres à réponse impulsionnelle finie (RIF) associés aux deux techniques de filtrage par blocs, overlap-save (OLS) et overlap-add (OLA). Ces deux techniques de filtrage RIF consistent à traiter le signal par blocs au moyen de la transformée de Fourier rapide (TFR) et permettent ainsi de réduire la complexité arithmétique des calculs de convolution. Les algorithmes que nous avons proposés sont basés sur le développement du modèle matriciel des structures OLS et OLA et sur l'utilisation des propriétés de l'algèbre linéaire, en particulier celles des matrices circulantes. Pour réduire davantage la complexité et la distorsion de filtrage, nous avons approfondi les bases mathématiques de la transformée en nombres de Fermat (FNT : Fermat Number Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Cette transformée, définie sur un corps de Galois d'ordre égal à un nombre de Fermat, est un cas particulier des transformées en nombres entiers (NTT : Number Theoretic Transform). Comparé à la TFR, la FNT permet un calcul sans erreur d'arrondi ainsi qu'une large réduction du nombre de multiplications nécessaires à la réalisation du produit de convolution. Pour mettre en évidence cette transformée, nous avons proposé et étudié une nouvelle conception des filtres blocs OLS et OLA mettant en oeuvre la FNT. Nous avons ensuite développé un algorithme de très faible complexité pour la synthèse du filtre optimal en utilisant les propriétés des matrices circulantes que nous avons développées dans le corps de Galois. Les résultats de l'implantation en virgule fixe du filtrage par blocs ont montré que l'utilisation de la FNT à la place de la TFR permettra de réduire la complexité et les erreurs de filtrage ainsi que le coût de synthèse du filtre optimal.
129

Optimisations de niveau système pour les algorithmes de traitement du signal utilisant l'arithmétique virgule fixe

Parashar, Karthick 20 December 2012 (has links) (PDF)
Le problème de l'optimisation des systèmes utilisant l'arithmétique virgule fixe est un problème d'optimisation combinatoire de complexité NP-difficile. Savoir analyser et optimiser des applications complexes et de taille réelle est le thème central de cette thèse. Une technique de type diviser-pour-régner, où un système donné est décomposé en plusieurs petits sous-systèmes organisés selon une hiérarchie est au cœur de cette approche. Cette décomposition ouvre la voie à l'évaluation rapide de la précision et au problème d'optimisation hiérarchique de la largeur des données et des opérations du système. En raison de la réduction du nombre de variables, la convergence du problème d'optimisation hiérarchique vers une solution est beaucoup plus rapide que dans le cas classique. Le modèle "Single Noise Source" (SNS) est proposé pour étudier les statistiques des erreurs de quantification. Au lieu de simplement se concentrer sur la moyenne et la variance du bruit des erreurs dues à la quantification, il fournit également des formules analytiques pour dériver les paramètres statistiques des processus aléatoires produisant les erreurs de quantification équivalentes à une simulation en virgule fixe. En présence des opérations " non-lisses " (un- smooth) telles que la décision dans les modulations QAM, les fonctions Min() ou Max(), etc., il est pour l'instant inévitable d'utiliser la simulation en virgule fixe. Une technique pour l'évaluation analytique des statistiques des erreurs de quantification en présence d'opérateurs non-lisses dans les graphes ne contenant pas de rebouclage est également proposée. Afin de tenir compte également des systèmes ayant des rebouclages, une technique hybride qui utilise le modèle SNS pour accélérer les simulations en virgule fixe est de plus proposée. Un cadre d'utilisation de l'optimisation convexe est proposé comme heuristique pour résoudre le problème d'optimisation des largeurs. Cette nouvelle technique améliore non seulement la qualité de la solution, mais permet de résoudre le problème plus rapidement que les approches itératives classiques. L'application des techniques proposées permet non seulement de réduire les coûts du système mais aussi une réduction de plusieurs ordres de grandeur dans le temps nécessaire pour optimiser les systèmes utilisant l'arithmétique virgule fixe.
130

Approximation et résolution de problèmes d'équilibre, de point fixe et d'inclusion monotone

Hirstoaga, Sever Adrian 28 September 2006 (has links) (PDF)
Cette thèse est consacrée à la résolution de trois types de problèmes fondamentaux qui apparaissent en analyse fonctionnelle hilbertienne non-linéaire et dans ses applications : les problèmes d'équilibre pour les bifonctions monotones, les problèmes de point fixe pour les contractions, et les problèmes d'inclusion pour les opérateurs monotones. Notre objectif est d'élaborer de nouvelles méthodes d'approximation et de construction de solutions pour ces problèmes et d'étudier leur comportement asymptotique. Dans un premier temps, nous proposons de nouvelles perturbations visqueuses et visco-pénalisées de ces problèmes, et étudions le comportement asymptotique des courbes d'approximation associées quand la perturbation devient évanescente. Nous étudions ensuite les propriétés de divers systèmes dynamiques discrets et continus associés à ces courbes. Cette étude débouche en particulier sur de nouveaux algorithmes, dont la convergence est établie. Des applications numériques à des problèmes de restauration en traitement de l'image sont fournies pour illustrer la mise en œuvre et les performances de certains des algorithmes proposés.

Page generated in 0.0236 seconds