• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 61
  • 28
  • 2
  • Tagged with
  • 228
  • 77
  • 63
  • 54
  • 45
  • 40
  • 31
  • 29
  • 26
  • 24
  • 21
  • 20
  • 20
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Vaporization and Combustion Processes of Alcohols and Acetone-Butanol-Ethanol (ABE) blended in n-Dodecane for High Pressure-High Temperature Conditions : Application to Compression Ignition Engine / Procédés de Vaporisation et Combustion des Alcools et de l'Acétone-Butanol-Ethanol (ABE) Mélangés au n-dodécane dans des Conditions de Haute-Pression et Haute-Température : Application au Moteur à allumage par compression

Nilaphai, Ob 18 October 2018 (has links)
La préoccupation de plus en plus importante ces dernières décennies, liée à l’épuisement des ressources pétrolières et au réchauffement climatique par les gaz à effet de serre a accentué l’intérêt du butanol comme carburant alternatif dans le secteur des transports grâce à ses propriétés adaptées pour le moteur à allumage par compression. Cependant, le faible rendement des procédés de production et de séparation empêche encore sa commercialisation en tant que carburant. C’est pourquoi le mélange de fermentation intermédiaire de la production de butanol, Acétone-Butanol-Ethanol(ABE), est de plus en plus considéré comme un carburant alternatif potentiel en raison de ses propriétés similaires au butanol et de ses avantages quant à son cout énergétique pour sa fabrication.Dans ce cadre, ce travail a pour objectif d’étudier l’impact des propriétés de différents mélanges d’ABE et n-dodécane en comparaison avec des mélanges d’alcools (éthanol et butanol) sur le processus de pulvérisation et de combustion et ce,pour différentes proportions en volume allant de 20% à 50%. Pour cela, une nouvelle chambre de combustion appelée"New One Shot Engine ", a été réalisée et utilisée car les conditions haute pression et haute température de "Spray-A" (60bars, 800-900 K et 22,8 kg/m³) définies par le réseau Engine Combustion network (ECN) peuvent être atteintes. Autant les phases liquides et vapeur que de combustion ont été caractérisées grâce à l’utilisation des plusieurs techniques optiques (extinction, Schlieren, chimiluminescence d’OH*) dans des conditions non réactives (Azote pur) et réactives (avec15% d'oxygène). Ces résultats expérimentaux ont non seulement permis d’étudier l’impact en oxygène moléculaire et de fournir une nouvelle base de données fiables, mais aussi d’affirmer la possibilité d’utiliser jusque 20% d’ABE en volume dans des moteurs à allumage par compression, grâce à ses caractéristiques de pulvérisation et de combustion similaires au carburant Diesel conventionnel. / The growing concern in recent decades, linked to the depletion of oil resources and global warming by greenhouse gases has increased the interest of butanol as an alternative fuel in the transport sector. However, the low yield of production and separation processes still prevents its commercialization as a fuel. Therefore, the intermediate fermentation mixture of butanol production, Acetone-Butanol-Ethanol (ABE), is increasingly considered as a potential alternative fuel because of its similar properties to butanol and its advantages in terms of the energy and cost in the separation process.The context of this work aims to study the impact of fuel properties on the spray and combustion processes of ABE mixture and alcohol fuels, blended with the diesel surrogate fuel, n-dodecane, in different volume ratio from 20% to 50%. A new combustion chamber called "New One Shot Engine," was designed and developed to reach the high-pressure and high temperatureconditions of "Spray-A" (60 bar, 800-900 K and 22.8 kg/m³) defined by the Engine Combustion Network (ECN).The macroscopic spray and combustion parameters were characterized by using the several optical techniques (extinction,Schlieren, chemiluminescence of OH*) under non-reactive (pure Nitrogen) and reactive (15% of oxygen) conditions. These experimental results not only made it possible to study the molecular oxygen impact and provide a new accurate database,but also to affirm the possibility of using ABE up to 20% by volume in compression-ignition engines, as its spray and combustion characteristics similar to conventional diesel fuel.
152

Systeme d'imagerie hybride par codage de pupille / Hybrid imaging system with wavefront coding

Diaz, Frédéric 06 May 2011 (has links)
De nouveaux concepts d’imagerie permettent aux systèmes optiques d’être plus compacts et plus performants. Parmi ces nouvelles techniques, les systèmes d’imagerie hybrides par codage de pupille allient un système optique comprenant un masque de phase et un traitement numérique. La fonction de phase implantée sur le masque rend l’image insensible à un défaut du système optique, qui peut être une aberration ou de la défocalisation. Cet avantage est obtenu au prix d’une déformation connue de l’image qui est ensuite corrigée par un traitement numérique.L’étude des propriétés de ces systèmes a été effectuée en cherchant à augmenter la profondeur de champ d’un système d’imagerie. Un gain sur ce paramètre permet déjà d’envisager le relâchement de contraintes de conception optique telles que la courbure de champ, la défocalisation thermique, le chromatisme… Dans ces techniques d’imagerie, la prise en compte du bruit du capteur constitue l’un des paramètres critiques pour le choix et l’utilisation de méthodes de traitement d’image.Les travaux menés durant cette thèse ont permis de proposer une approche originale de conception conjointe de la fonction de phase du masque et de l’algorithme de restauration d’image. Celle-ci est basée sur un critère de rapport signal à bruit de l’image finale. Contrairement aux approches connues, ce critère montre qu’il n’est pas nécessaire d’obtenir une stricte invariance de la fonction de transfert du système optique. Les paramètres des fonctions de phase optimisés grâce à ce critère sont sensiblement différents de ceux usuellement proposés et conduisent à une amélioration significative de la qualité de l’image.Cette approche de conception optique a été validée expérimentalement sur une caméra thermique non refroidie. Un masque de phase binaire qui a été mis en œuvre en association avec un traitement numérique temps réel implémenté sur une carte GPU a permis d’augmenter la profondeur de champ de cette caméra d’un facteur 3. Compte-tenu du niveau de bruit important introduit par l’utilisation d’un capteur bolométrique, la bonne qualité des images obtenues après traitement démontre l’intérêt de l’approche de conception conjointe appliquée à l’imagerie hybride par codage de pupille. / New imaging techniques allow better and smaller systems. Among these new techniques, hybrid imaging systems with wavefront coding includes an optical system with a phase mask and a processing step. The phase function of the mask makes the system insensitive to a fault of the optical system, such as an aberration or a defocus. The price of this advantage is a deformation of the image acquired by a sensor, which is then processed. The study of the properties of these hybrid imaging systems has been completed by increasing the depth of field of an imaging system, which allows to relax some design constraints such as field curvature, thermal defocus, chromaticism… In these imaging techniques, the consideration the noise of the sensor is one the critical parameters when choosing the image processing method.The work performed during this thesis allowed to proposed an original approach for the cross-conception of the phase function of the mask and the processing step. This approach is based on a signal-to-noise criterion. Unlike known approaches, this criterion shows that a strict insensitivity of the modulation transfer function of the optics is not required. The parameters of the phase functions optimized thanks to this criterion are noticeably different from those usually proposed and lead to a significant increase of the image quality.This cross-conception approach has been validated experimentally on an uncooled thermal camera. A binary phase mask associated with a real-time processing implemented on a GPU allowed to increase the depth of field of this camera by a factor 3. Considering the important level of noise introduced by the use of a bolometric sensor, the good quality of the processed image shows the interest of the cross-conception for hybrid imaging system with wavefront coding.
153

Combinaison cohérente de lasers à cascade quantique / Coherent combining of quantum cascade lasers

Bloom, Guillaume 14 February 2012 (has links)
Des applications comme les contre-mesures optiques nécessitent des sources puissantes et avec une bonne qualité de faisceau dans le moyen infrarouge. Le laser à cascade quantique (LCQ) est une solution prometteuse mais la puissance fournie par ces lasers n’est pas suffisante. La combinaison cohérente de plusieurs de ces sources devrait permettre de sommer leurs puissances tout en conservant la qualité de faisceau d’un émetteur unique et constitue donc une solution intéressante pour contourner l’actuelle limitation en puissance des LCQ.Nous présentons une étude théorique et expérimentale de la combinaison de faisceaux cohérente de LCQ dans une cavité externe commune utilisant un coupleur de faisceaux. La mise en phase est ici totalement passive puisque fondée sur la minimisation des pertes dans la cavité globale : on parle d’auto-organisation. Un modèle général permettant de quantifier l’efficacité de combinaison et la stabilité de telles cavités est développé. Dans un premier temps, on montre expérimentalement que la combinaison cohérente de deux LCQ dans une cavité Michelson est une solution efficace et stable. Pour combiner plus d’émetteurs il est nécessaire de concevoir des coupleurs de faisceaux dans le moyen infrarouge efficaces. Pour cela, nous avons étudié deux types de réseaux : les réseaux de phase binaire (réseaux de Dammann) et des structures à gradient d’indice composées de motifs sub-longueur d’onde. Le dessin et l’optimisation de telles structures fait appel à la théorie des milieux artificiels et nécessite l’utilisation d’un code de résolution rigoureuse des équations de Maxwell (RCWA). Enfin, la combinaison cohérente de cinq LCQ en cavité externe avec un coupleur de faisceaux est démontrée expérimentalement et la combinaison d’un plus grand nombre de LCQ est discutée. En conclusion, nous présentons une solution originale pour réaliser la combinaison cohérente passive de LCQ et ainsi apporter une solution à l’augmentation de puissance dans le moyen infrarouge. / Powerful sources in the mid-infrared with a good beam quality are highly needed for applications such as optical countermeasures. The quantum cascade laser (QCL) is a promising solution but the maximum power achievable is not sufficient. The coherent beam combining of several QCL could lead to higher output power in the same beam and thus is an interesting solution to circumvent the current power limitation of these sources.We present a theoretical and experimental study of the coherent beam combining of QCL in a common external cavity with a beam combiner. The phase locking is totally passive since it is only based on loss minimization in the external cavity: it is a self-organization process. A general model is developed to quantify the combining efficiency and the stability that can be obtained from this method. Experimentally, the coherent combining of two QCL in a Michelson cavity is studied first and demonstrated to be efficient and stable. In order to combine more emitters, an efficient beam combiner must be designed in the mid-infrared. For that purpose, two type of gratings, a classical binary phase grating (or Dammann grating) and a more complex gradient-index structure made of local sub-wavelength patterns are designed and compared. The calculation and optimization of this sub-wavelength structure is based on the artificial media theory and is achieved with rigorous coupled wave analysis (RCWA). Finally, the coherent combining of five QCL in an external cavity with a binary phase grating is demonstrated and the scalability to the combining of more emitters is discussed. In conclusion, we present an original solution to combine coherently several QCL and thus address the power scaling issue in the mid-infrared.
154

Caractérisation analytique et optimisation de codes source-canal conjoints / Analytical Characterization and Optimization of Joint Source-Channel Codes

Diallo, Amadou Tidiane 01 October 2012 (has links)
Les codes source-canal conjoints sont des codes réalisant simultanément une compression de données et une protection du train binaire généré par rapport à d’éventuelles erreurs de transmission. Ces codes sont non-linéaires, comme la plupart des codes de source. Leur intérêt potentiel est d’offrir de bonnes performances en termes de compression et de correction d’erreur pour des longueurs de codes réduites.La performance d’un code de source se mesure par la différence entre l’entropie de la source à compresser et le nombre moyen de bits nécessaire pour coder un symbole de cette source. La performance d’un code de canal se mesure par la distance minimale entre mots de codes ou entre suite de mots de codes, et plus généralement à l’aide du spectre des distances. Les codes classiques disposent d’outils pour évaluer efficacement ces critères de performance. Par ailleurs, la synthèse de bons codes de source ou de bons codes de canal est un domaine largement exploré depuis les travaux de Shannon. Par contre des outils analogues pour des codes source-canal conjoints, tant pour l’évaluation de performance que pour la synthèse de bons codes restaient à développer, même si certaines propositions ont déjà été faites dans le passé.Cette thèse s’intéresse à la famille des codes source-canal conjoints pouvant être décrits par des automates possédant un nombre fini d’états. Les codes quasi-arithmétiques correcteurs d’erreurs et les codes à longueurs variables correcteurs d’erreurs font partie de cette famille. La manière dont un automate peut être obtenu pour un code donné est rappelée.A partir d’un automate, il est possible de construire un graphe produit permettant de décrire toutes les paires de chemins divergeant d'un même état et convergeant vers un autre état. Nous avons montré que grâce à l’algorithme de Dijkstra, il est alors possible d’évaluer la distance libre d’un code conjoint avec une complexité polynomiale.Pour les codes à longueurs variables correcteurs d’erreurs, nous avons proposé des bornes supplémentaires, faciles à évaluer. Ces bornes constituent des extensions des bornes de Plotkin et de Heller aux codes à longueurs variables. Des bornes peuvent également être déduites du graphe produit associé à un code dont seule une partie des mots de codes a été spécifiée.Ces outils pour borner ou évaluer exactement la distance libre d’un code conjoint permettent de réaliser la synthèse de codes ayant des bonnes propriétés de distance pour une redondance donnée ou minimisant la redondance pour une distance libre donnée.Notre approche consiste à organiser la recherche de bons codes source-canal conjoints à l’aide d’arbres. La racine de l’arbre correspond à un code dont aucun bit n’est spécifié, les feuilles à des codes dont tous les bits sont spécifiés, et les nœuds intermédiaires à des codes partiellement spécifiés. Lors d’un déplacement de la racine vers les feuilles de l’arbre, les bornes supérieures sur la distance libre décroissent, tandis que les bornes inférieures croissent. Ceci permet d’appliquer un algorithme de type branch-and-prune pour trouver le code avec la plus grande distance libre, sans avoir à explorer tout l’arbre contenant les codes. L'approche proposée a permis la construction de codes conjoints pour les lettres de l'alphabet. Comparé à un schéma tandem équivalent (code de source suivi d'un code convolutif), les codes obtenus ont des performances comparables (taux de codage, distance libre) tout en étant moins complexes en termes de nombre d’état du décodeur.Plusieurs extensions de ces travaux sont en cours : 1) synthèse de codes à longueurs variables correcteurs d’erreurs formalisé comme un problème de programmation linéaire mixte sur les entiers ; 2) exploration à l’aide d’un algorithme de type A* de l’espace des codes de à longueurs variables correcteur d’erreurs. / Joint source-channel codes are codes simultaneously providing data compression and protection of the generated bitstream from transmission errors. These codes are non-linear, as most source codes. Their potential is to offer good performance in terms of compression and error-correction for reduced code lengths.The performance of a source code is measured by the difference between the entropy of the source to be compressed and the average number of bits needed to encode a symbol of this source. The performance of a channel code is measured by the minimum distance between codewords or sequences of codewords, and more generally with the distance spectrum. The classic codes have tools to effectively evaluate these performance criteria. Furthermore, the design of good source codes or good channel codes is a largely explored since the work of Shannon. But, similar tools for joint source-channel codes, for performances evaluation or for design good codes remained to develop, although some proposals have been made in the past.This thesis focuses on the family of joint source-channel codes that can be described by automata with a finite number of states. Error-correcting quasi-arithmetic codes and error-correcting variable-length codes are part of this family. The way to construct an automaton for a given code is recalled.From an automaton, it is possible to construct a product graph for describing all pairs of paths diverging from some state and converging to the same or another state. We have shown that, using Dijkstra's algorithm, it is possible to evaluate the free distance of a joint code with polynomial complexity. For errors-correcting variable-length codes, we proposed additional bounds that are easy to evaluate. These bounds are extensions of Plotkin and Heller bounds to variable-length codes. Bounds can also be deduced from the product graph associated to a code, in which only a part of code words is specified.These tools to accurately assess or bound the free distance of a joint code allow the design of codes with good distance properties for a given redundancy or minimizing redundancy for a given free distance. Our approach is to organize the search for good joint source-channel codes with trees. The root of the tree corresponds to a code in which no bit is specified, the leaves of codes in which all bits are specified, and the intermediate nodes to partially specified codes. When moving from the root to the leaves of the tree, the upper bound on the free distance decreases, while the lower bound grows. This allows application of an algorithm such as branch-and-prune for finding the code with the largest free distance, without having to explore the whole tree containing the codes.The proposed approach has allowed the construction of joint codes for the letters of the alphabet. Compared to an equivalent tandem scheme (source code followed by a convolutional code), the codes obtained have comparable performance (rate coding, free distance) while being less complex in terms of the number of states of the decoder. Several extensions of this work are in progress: 1) synthesis of error-correcting variable-length codes formalized as a mixed linear programming problem on integers, 2) Explore the search space of error-correcting variable-length codes using an algorithm such as A* algorithm.
155

Croissance cristalline de cristaux scintillateurs de LGSO et de grenats à partir de l’état liquide par les techniques Czochralski (Cz) et micro-pulling down (μ-PD) et leurs caractérisations / Growth from melt by micro-pulling down (µ-PD) and Czochralski (Cz) techniques and characterization of LGSO and garnet scintillator crystals

Kononets, Valerii 15 December 2014 (has links)
Des lots de scintillateurs orthosilicates et grenats dope terres rares ont été cristallisés par les méthodes micro-pulling down (μ-PD) et Czochralski. Pour la première fois des fibres Lu2xGd2 2xSiO5 dopées Ce (LGSO:Ce) (x = 0.5) ont été tirées par la méthode micro-pulling down (μ-PD). Dans le but de déterminer la concentration optimale de l'ion activateur avec les meilleurs paramètres de scintillation, la concentration du cérium dans le liquide a été variée dans l'intervalle 0.01-1.5 at%. La distribution spatiale des cations le long des cristaux LGSO :Ce tirés par la méthode de la micro-pulling down a été étudiée par microscopie à champ proche et microscopie Confocale à travers l'excitation du Ce3+ sur les sites cristallographiques du CeO6. Des fibres de composition Lu3A15O12 (LuAG) non dopées et dopées Ce3+ et Pr3+, des matrices mixtes (Lu, Y)3A15O12 (LuYAG) et Y3A15O12 (YAG) dopés Ce3+ ont été fabriqués pour évaluer les possibilités de développer un calorimètre dual-readout pour fonctionner dans le Grand collisionneur de hadrons du CERN. Les cristaux LuAG ont été choisis dans le but de détecter la scintillation (ion activateur) et les radiations Chernkov. Pour confirmer l'amélioration de la qualité des fibres cristallines à travers les conditions de croissance cristalline, nous avons réalisé des mesures d'atténuation le long des fibres. La bonne reproductivité des fibres a été vérifiée par des tests faisceau en conditions de calorimètre. Nous avons étudié la structure et la scintillation dans les cristaux appartenant à la solution solide Y3(Al1-xGax)5O12 :Ce. Les cristaux ont été tirés à partir de l'état liquide par la méthode Czochralski. La distribution des cations de la matrice a été étudiée. L'effet de la substitution du Al/Ga dans Y3(Al1-xGax)5O12 :Ce sur le rendement de scintillation a été déterminé. Le rendement de scintillation a atteint 130 % par rapport au grenat aluminium-yttrium dopé Ce. L'évolution des propriétés de luminescence en fonction de la substitution al/Ga a été étudiée / A set of rare earth orthosilicate and garnet scintillators were grown by the micropulling down (μ-PD) and Czochralski methods. Ce-doped Lu2xGd2 2xSiO5 (LGSO:Ce) fibers were grown by the micro-pulling down (μ-PD) method for the first time. In order to determine the optimal activator concentration with regard to the best scintillating parameters, cerium concentration in the melt was varied within 0.01-1.5 at.%. A set of results on optical and scintillation characteristics of the grown fibers with the different activator content was determined and discussed. Distribution of Gd3+ and Ce3+ in LGSO:Ce structure was compared to the Czochralski grown crystals. Spatial distribution of cations across LGSO:Ce scintillation shaped crystals grown by the micro-pulling-down method is studied using wide-field microscopy under simultaneous excitation of both cerium-related centers and confocal microscopy under selective excitation of Ce3+ in CeO6 crystallographic sites. Undoped fibers of Lu3Al5O12 (LuAG) and doped by Ce3+, Pr3+, mixed (Lu,Y)3Al5O12 (LuYAG) and Y3Al5O12 (YAG) both doped by Ce3+ were produced to evaluate a possibility of their potential use in the new dual-calorimeter planned to operate in the upgraded Large Hadron Collider in CERN. The choice of grown crystals was made to detect scintillation (activated materials) and Cherenkov radiation (LuAG). Growth conditions for the improvement of fibers quality were selected basing on measurements of attenuation length of the fibers. The activator segregation coefficient in LuAG:Ce and LuYAG:Ce fibers was evaluated by the cathodoluminescence measurements. The effect of annealing and radiation damage was studied. The good productivity of the grown fibers was verified on the test beam calorimeter. Structure and scintillation yield of Y3(Al1 xGax)5O12:Ce solid solution crystals are studied. Crystals are grown from melt by the Czochralski method. Distribution of host cations in crystal lattice is determined. The trend of light output at Al/Ga substitution in Y3(Al1-xGax)5O12:Ce is determined. Light output in mixed crystals reaches 130% comparative to Ce-doped yttrium–aluminum garnet. The evolution of luminescence properties at Al/Ga substitution is studied
156

Optimization and Scheduling on Heterogeneous CPU/FPGA Architecture with Communication Delays / Optimisation et ordonnancement sur une architecture hétérogène CPU/FPGA avec délais de communication

Abdallah, Fadel 21 December 2017 (has links)
Le domaine de l'embarqué connaît depuis quelques années un essor important avec le développement d'applications de plus en plus exigeantes en calcul auxquels les architectures traditionnelles à base de processeurs (mono/multi cœur) ne peuvent pas toujours répondre en termes de performances. Si les architectures multiprocesseurs ou multi cœurs sont aujourd'hui généralisées, il est souvent nécessaire de leur adjoindre des circuits de traitement dédiés, reposant notamment sur des circuits reconfigurables, permettant de répondre à des besoins spécifiques et à des contraintes fortes particulièrement lorsqu'un traitement temps-réel est requis. Ce travail présente l'étude des problèmes d'ordonnancement dans les architectures hétérogènes reconfigurables basées sur des processeurs généraux (CPUs) et des circuits programmables (FPGAs). L'objectif principal est d'exécuter une application présentée sous la forme d'un graphe de précédence sur une architecture hétérogène CPU/FPGA, afin de minimiser le critère de temps d'exécution total ou makespan (Cmax). Dans cette thèse, nous avons considéré deux cas d'étude : un cas d'ordonnancement qui tient compte des délais d'intercommunication entre les unités de calcul CPU et FPGA, pouvant exécuter une seule tâche à la fois, et un autre cas prenant en compte le parallélisme dans le FPGA, qui peut exécuter plusieurs tâches en parallèle tout en respectant la contrainte surfacique. Dans un premier temps, pour le premier cas d'étude, nous proposons deux nouvelles approches d'optimisation, GAA (Genetic Algorithm Approach) et MGAA (Modified Genetic Algorithm Approach), basées sur des algorithmes génétiques. Nous proposons également de tester un algorithme par séparation et évaluation (méthode Branch & Bound). Les approches GAA et MGAA proposées offrent un très bon compromis entre la qualité des solutions obtenues (critère d'optimisation de makespan) et le temps de calcul nécessaire à leur obtention pour résoudre des problèmes à grande échelle, en comparant à la méthode par séparation et évaluation (Branch & Bound) proposée et l'autre méthode exacte proposée dans la littérature. Dans un second temps, pour le second cas d'étude, nous avons proposé et implémenté une méthode basée sur les algorithmes génétiques pour résoudre le problème du partitionnement temporel dans un circuit FPGA en utilisant la reconfiguration dynamique. Cette méthode fournit de bonnes solutions avec des temps de calcul raisonnables. Nous avons ensuite amélioré notre précédente approche MGAA afin d'obtenir une nouvelle approche intitulée MGA (Multithreaded Genetic Algorithm), permettent d'apporter des solutions au problème de partitionnement. De plus, nous avons également proposé un algorithme basé sur le recuit simulé, appelé MSA (Multithreaded Simulated Annealing). Ces deux approches proposées, basées sur les méthodes métaheuristiques, permettent de fournir des solutions approchées dans un intervalle de temps très raisonnable aux problèmes d'ordonnancement et de partitionnement sur système de calcul hétérogène / The domain of the embedded systems becomes more and more attractive in recent years with the development of increasing computationally demanding applications to which the traditional processor-based architectures (either single or multi-core) cannot always respond in terms of performance. While multiprocessor or multicore architectures have now become generalized, it is often necessary to add to them dedicated processing circuits, based in particular on reconfigurable circuits, to meet specific needs and strong constraints, especially when real-time processing is required. This work presents the study of scheduling problems into the reconfigurable heterogeneous architectures based on general processors (CPUs) and programmable circuits (FPGAs). The main objective is to run an application presented in the form of a Data Flow Graph (DFG) on a heterogeneous CPU/FPGA architecture in order to minimize the total running time or makespan criterion (Cmax). In this thesis, we have considered two case studies: a scheduling case taking into account the intercommunication delays and where the FPGA device can perform a single task at a time, and another case taking into account parallelism in the FPGA, which can perform several tasks in parallel while respecting the constraint surface. First, in the first case, we propose two new optimization approaches GAA (Genetic Algorithm Approach) and MGAA (Modified Genetic Algorithm Approach) based on genetic algorithms. We also propose to compare these algorithms to a Branch & Bound method. The proposed approaches (GAA and MGAA) offer a very good compromise between the quality of the solutions obtained (optimization makespan criterion) and the computational time required to perform large-scale problems, unlike to the proposed Branch & Bound and the other exact methods found in the literature. Second, we first implemented an updated method based on genetic algorithms to solve the temporal partitioning problem in an FPGA circuit using dynamic reconfiguration. This method provides good solutions in a reasonable running time. Then, we improved our previous MGAA approach to obtain a new approach called MGA (Multithreaded Genetic Algorithm), which allows us to provide solutions to the partitioning problem. In addition, we have also proposed an algorithm based on simulated annealing, called MSA (Multithreaded Simulated Annealing). These two proposed approaches which are based on metaheuristic methods provide approximate solutions within a reasonable time period to the scheduling and partitioning problems on a heterogeneous computing system
157

Multi-sensor remote sensing parameterization of heat fluxes over heterogeneous land surfaces / Paramétrisation par télédétection multi-capteurs des flux de chaleur à partir de surfaces naturelles hétérogènes

Faivre, Robin 05 November 2014 (has links)
La paramétrisation du transfert de chaleur par télédétection, basée sur le schéma SEBS, s'est déjà avérée très adaptée pour l'estimation de l'évapotranspiration (ET) sur des surfaces naturelles homogènes. Cependant, l'utilisation d'une telle méthode pour des paysages hétérogènes (e.g. régions semi-arides ou surfaces agricoles) est plus délicate, puisque le principe de la théorie de la similarité est compromis par la présence de différentes sources de chaleur et de hauteurs variées. Dans un premier temps, cette thèse a pour objectif de proposer et d'évaluer différents modèles basés sur la géométrie de la végétation qui permettent d'estimer la longueur de rugosité pour le transfert de quantité de mouvement à la surface (z0m), cette dernière étant un paramètre clé dans la caractérisation du transfert de chaleur. En revanche, une telle investigation ne peut être menée qu'à une petite échelle et à l'aide de données de télédétection très haute résolution permettant ainsi une description très détaillée de la surface. Ensuite, le second aspect de ce travail est de caractériser le transfert de chaleur dans le cas d'études régionales. Puis, la capacité de SEBS à estimer les flux de chaleur turbulents à de grandes échelles spatiales et temporelles sera évaluée. Pour ce faire, l’approche multi-échelle de SEBS (MSSEBS) a été implémentée afin de traiter une zone de 2,4 millions km2, incluant le Plateau du Tibet et l’amont des principaux fleuves d’Asie du sud-est. La combinaison de données horaires de température de surface FY-2 avec un rayonnement net journalier et des paramètres de surface avancés, permet de produire une série temporelle d’ET sur le Plateau du Tibet pour la période 2008-2010, et à une fréquence journalière. / The parameterization of heat transfer by remote sensing, and based on SEBS scheme for turbulent heat fluxes retrieval, already proved to be very convenient for estimating evapotranspiration (ET) over homogeneous land surfaces. However, the use of such a method over heterogeneous landscapes (e.g. semi-arid regions or agricultural land) becomes more difficult, since the principle of similarity theory is compromised by the presence of different heat sources with various heights. This thesis aims at first to propose and evaluate some models based on vegetation geometry for retrieving the surface roughness length for momentum transfer (z0m), which is a key parameter in the characterization of heat transfer. Such an investigation can only be led at a small scale with very-high resolution remote sensing data, for a precise description of the land surface. Therefore, the second aspect of this work is to determine how to address the characterization of heat transfer for regional studies. Then, the reliability of SEBS for estimating turbulent heat fluxes at large spatial and temporal scales has been evaluated. To do so, the Multi-Scale SEBS approach (MSSEBS) has been implemented for a 2.4 million km2 area including the Tibetan Plateau and the headwaters of the major rivers of East and South Asia. The addition of gap-filled hourly FY-2 LST data to advanced daily averaged net radiation and land surface parameters, allows to compute time-series of land surface ET over the Tibetan Plateau during the period 2008-2010, and on a daily basis.
158

Modelling of windage and churning losses in high speed rolling element bearings / Modélisation de la dérive et des pertes de barattage dans les paliers d'éléments roulants à grande vitesse

Gao, Wenjun 27 June 2018 (has links)
Dans un système de machines rotatives comme un moteur à turbine, les paliers d'éléments roulants à grande vitesse jouent un rôle important dans le support de l'arbre ou du rotor rotatif, et ont besoin d'une lubrification pour assurer leur fonction. Sauf qu'une petite quantité d'huile est nécessaire pour former le film lubrifiant élastohydrodynamique dans la zone de contact, la plus grande partie du lubrifiant reste en suspension dans l'air, formant un mélange huile/air. Ce phénomène entraîne des pertes hydrauliques parasitaires excessives lorsque les éléments roulants se translatent et tournent dans l'environnement fluide, ce qui peut constituer une partie relativement importante de la perte de puissance totale du roulement, appelée traînée d'enroulement et pertes de barattage. Pour une vitesse de rotation jusqu'à 3× 106 Ndm, la contribution de la traînée/dérive au total peut atteindre 50%. Cependant, jusqu'à présent, il existe peu d'approches utilisées directement pour l'estimation des pertes par traînage, qui ne pouvait fournir qu'une approximation plutôt grossière. Dans cette thèse, la méthode CFD est utilisée pour analyser d'abord l'écoulement autour d'un cylindre circulaire de longueur finie avec deux extrémités libres dans un espace ouvert. Ensuite, le modèle est remplacé par plusieurs cylindres circulaires en ligne pris en sandwich par deux parois plates, ce qui représente une approche simplifiée. Le fluide est ici considéré comme incompressible, représentant un fluide monophasé équivalent pour l'écoulement diphasique huile/air à l'intérieur de la cavité de palier avec des propriétés de fluide spécifiées. Les résultats indiquent que l'écoulement autour de l'élément de rouleau de longueur finie est perturbé par ses deux extrémités libres, les anneaux environnants, la cage et d'autres éléments roulants. Il est proposé une relation entre le coefficient de traînée et le nombre de Reynolds approprié pour un cylindre circulaire dans les roulements à rouleaux (1<L/D<6), ainsi qu'une formulation pour la prévision des pertes de barattage. L'écoulement diphasique huile/air à l'intérieur de la cavité de palier avec lubrification sous la course est également étudié dans ce travail. Le volume couplé de niveau de fluide (CLS-VOF) est utilisé pour démontrer la distribution du lubrifiant le long de la circonférence du palier. L'effet de divers facteurs est étudié, par ex. la vitesse d'injection d'huile, le diamètre de la buse, les propriétés de l'huile et l'angle d'injection de l'huile. La vitesse de rotation de tous les composants du palier est étudiée en particulier pour quantifier leur influence sur la fraction du volume d'huile à l'intérieur de la cavité du palier. Les résultats démontrent que non seulement la vitesse de rotation relative de l'anneau interne, mais la vitesse de la cage elle-même pourrait changer la distribution d'huile. / In a rotating machinery system like turbine engine, high speed rolling element bearings play an important role in supporting the rotating shaft or rotor, and need lubrication to insure their function. Except a small quantity of oil is needed to form the elastohydrodynamic lubricant film in the contact zone, most of lubricant remains in suspension in air, forming an oil/air mixture. This phenomenon leads to excessive parasitic hydraulic losses when rolling elements translate and rotate into the fluid environment, which may constitute a relatively large portion of the bearing's total power loss, named windage drag and churning losses. For high speed applications, i.e. for rotational speed up to 3× 10^6 Ndm, the contribution of drag/windage loss to the total one may reach up to 50%. However, so far there are few approaches used directly for drag and churning losses estimation, which could only provide a rather gross approximation. In this thesis, the Computational Fluid Dynamics (CFD) method is employed to analyze first the flow around one finite-length circular cylinder with two free ends in an open space. Then the model is changed to several in-line circular cylinders sandwiched by two flat walls, which represents a simplified approach. The fluid here is regarded as incompressible, representing an equivalent one-phase fluid for the oil/air two-phase flow inside the bearing cavity with specified fluid properties. The results indicate that the flow around the finite length roller element is perturbed by its two free ends, the surrounding rings, the cage and other rolling elements. A relationship between the drag coefficient and the Reynolds number suitable for circular cylinder in roller bearings (1<L/D<6) is proposed, as well as a formulation for churning losses prediction. The oil/air two phase flow inside the bearing cavity with under-race lubrication is also studied in this work. The coupled level-set volume of fluid (CLS-VOF) method is employed to demonstrate the lubricant distribution along the bearing circumference. The effect of various factors is studied, e.g. the oil injection velocity, the nozzle diameter, the oil properties, and the oil injecting angle. Rotational speed of all the bearing components are studied particularly to quantify their influence to the oil volume fraction inside the bearing cavity. The results demonstrate that not only the inner-ring relative rotational speed, but the cage speed itself could change the oil distribution. The results can be used for the precise lubrication design to optimate the oil distribution inside the bearing.
159

Étude expérimentale et simulation des modes électromagnétiques se propageant sur des guides d’ondes métalliques de petites dimensions aux fréquences THz / Experimental and simulation sudy of electromagnetic modes propagating along a sub-wavelenght dimensions rectangular metal waveguide at THz frequencies

Gacemi, Djamal Eddine 21 December 2012 (has links)
Focaliser l’énergie optique en un petit spot de diamètre beaucoup plus petit que la limite de diffraction a longtemps été un sujet très intéressant en photonique. Dans le domaine Térahertz (avec une longueur d’onde de l’ordre de 300 µm) ce défi est particulièrement important pour répondre à l’intérêt croissant de l’imagerie haute résolution et de la spectroscopie des matériaux d’une taille inférieure à l’échelle submillimétrique de la longueur d’onde en espace libre. Dans ma thèse, j’ai étudié le confinement des ondes de surface aux fréquences THz sur des structures métalliques de dimensions sous longueur d’onde. J’ai expérimentalement mesuré le confinement du champ électrique et calculé la relation de dispersion du mode de surface sur une structure métallique déposée sur un substrat diélectrique de faible permittivité. Ces mesures sont obtenues à l’aide d’un banc de mesures THz guidé, développé pendant ma thèse. La mesure est faite en champ proche par une sonde électro-optique micrométrique, librement positionnable. Ces résultats expérimentaux sont complétés par des simulations numériques, obtenues par le logiciel de simulation par éléments finis, Comsol Multiphysics. Les résultats expérimentaux montrent un confinement de λ/20 du mode EM de surface sur une ligne métallique rectangulaire de petites dimensions. / Focusing optical energy into a small spot diameter much smaller than the diffraction limit has long been a very interesting topic in photonics. In Terahertz (with a wavelength of about 300 microns) this challenge is particularly important to meet the growing interest in high-resolution imaging and spectroscopy of materials whose size is smaller than the wavelength in free space. In my thesis, I studied the confinement of surface waves at THz frequencies on metal structures with sub-wavelength dimensions . I experimentally measured the confinement of the electric field and calculated the dispersion relation of the surface mode on a metal structure deposited on a low permittivity dielectric substrate. These measurements are obtained using a guided-wave time domain spectroscopy set-up, developed during my PhD. The measurement is made by a near-field freely positionable electro-optical probe. These experimental results are supplemented by numerical simulations obtained by finite element analysis software Comsol Multiphysics. The experimental results show a confinement of λ/20 of the EM surface mode on a sub-wavelength dimension rectangular metal wire.
160

Troubles d'utilisation d'outils et de la cognition numérique après lésions vasculaires cérébrales : deux faces d'une même pièce ? / Tool use and numerical cognition disorders after cerebral vascular damage : two sides of the same coin ?

Faye, Alexandrine 12 December 2018 (has links)
L’utilisation d’outils est un trait définitoire du genre Homo. Il est donc fondamental de mieux connaître les bases cognitives et cérébrales nous permettant d’utiliser des outils. Les modèles cognitivistes actuels expliquent l’utilisation d’outils à travers l’hypothèse de l’activation d’une mémoire gestuelle (i.e., engrammes gestuels ou visuo-kinétiques, ou connaissances sensorimotrices sur la manipulation ; voir Rothi, Ochipa, & Heilman, 1991 ; Buxbaum, 2001) ? Cette hypothèse ne permet toutefois pas de comprendre l’utilisation d’outils nouveaux. Une hypothèse alternative a été établie, suggérant que toute situation d’utilisation d’outils (familiers et nouveaux) requière un raisonnement technique (e.g., Osiurak & Badets, 2016). Ce type de raisonnement, qui impliquerait le lobe pariétal inférieur gauche, nous permettrait de formuler l’action mécanique et d’évaluer les propriétés physiques des outils et des objets. Dans le cadre de cette hypothèse, l’une des finalités de cette thèse était de mieux comprendre les troubles d’utilisation d’outils chez des patients cérébro-lésés. Le présent travail s’est également porté sur l’investigation de la cognition numérique. Par ce terme, nous ne faisons pas uniquement référence au calcul mental ou à l’arithmétique. Nous englobons également ce que Dehaene et Cohen (1995) ont nommé code analogique dans leur Modèle du Triple Code. Ce code stockerait les représentations des quantités numériques au sein des lobes pariétaux. Autrement dit, il contiendrait le sens du nombre (Dehaene, 1997) permettant d’associer une étiquette symbolique (e.g., chiffre arabe) à la quantité correspondante. Au quotidien, ce serait grâce à ces représentations que nous pourrions comparer ou estimer la numérosité des ensembles d’objets. L’objectif principal de cette thèse était de rapprocher, tant au niveau cognitif que cérébral, ces deux domaines d’intérêt que sont l’utilisation d’outils et la cognition numérique. En effet, nous avons remarqué que ces deux capacités nécessitaient toutes deux un processus commun d’estimation de la magnitude (i.e., magnitude des propriétés physiques et magnitude des quantités numériques). En outre, au niveau cérébral, elles nécessitent l’activation de régions communes dans le lobe pariétal. Pour penser ce lien, nous nous sommes appuyés sur la théorie de la magnitude (ATOM) formulée par Walsh (2003). Celui-ci postule que toutes les magnitudes, c’est-à-dire toutes les dimensions qui peuvent être décrites par des relations « plus que/moins que », soient traitées au sein d’un système commun et unique dans le lobe pariétal droit (Bueti & Walsh, 2009). Nous avons supposé que la magnitude des propriétés physiques pourrait être traitée dans ce système au même titre que les magnitudes discrètes (e.g., numérosité) et continues (e.g., temps, espace). Nos résultats ont mis en évidence un trouble de l’utilisation d’outils nouveaux chez les patients LBD, sans difficultés apparentes pour estimer les propriétés physiques. Les patients RBD étaient déficitaires dans toutes les conditions évaluant la cognition numérique, contredisant les prédictions issues du TCM. Ces patients étaient également en difficulté pour estimer la longueur mais pas le poids. Comme des associations entre estimation de la longueur et du poids, et entre estimation de la longueur et cognition numérique ont été observées dans les différents groupes, nous suggérons que le système de magnitude soit divisé en sous-systèmes. Fait étonnant, nous avons trouvé une association entre utilisation d’outils et calcul approximatif chez les patients LBD supposant une tentative de compensation de l’utilisation par le calcul. Finalement, il semble que l’utilisation d’outils et la cognition numérique reposent sur des mécanismes neurocognitifs distincts, puisque les différents types de magnitudes ne paraissent pas être traités au sein d’un système commun et unique. / Tool use is a defining feature of the genus Homo. It is therefore fundamental to better understand the cognitive and cerebral bases that allow us to use tools. The current cognitivist models explain tool use through the hypothesis of an activation of gestural memories (i.e., gestural or visuo-kinetic engrams, or sensorimotor knowledge of manipulation; see Rothi, Ochipa, & Heilman, 1991; Buxbaum, 2001). This theory is unable to explain the use of novel tools. An alternative hypothesis suggests that any situation of tool use (familiar and new) requires technical reasoning (e.g., Osiurak & Badets, 2016). This reasoning, involving the left inferior parietal lobe, would enable to formulate the mechanical action and to evaluate the physical properties of tools and objects. One of the aims of this thesis was to better understand the tool use disorders in brain-damaged patients, within the framework of the technical reasoning hypothesis. This work has also focused on the investigation of numerical cognition. By this term we refer to mental arithmetic and math, but also to analogical code (see the Triple Code Model, Dehaene & Cohen, 1995). It corresponds to the representation of numerical quantities, stored in the parietal lobes. In other words, this code would contain the sense of number (Dehaene, 1997) to associate a symbolic label (e.g., Arabic digits) with the corresponding quantity. In everyday life, this representation would be critical to compare or estimate the numerosity of object sets.The main objective of this thesis was to explore, at cognitive and cerebral levels, whether links exist between both fields of interest that are tool use and numerical cognition. Indeed, we noticed that both capacities need a common process of magnitude estimation (i.e., physical properties and numerical quantity). In addition, at the cerebral level, they require the activation of common regions in the parietal lobe. We relied on the Theory Of Magnitude (ATOM) formulated by Walsh (2003). It postulates that all magnitudes, namely the dimensions described by “more than/less than” relationships (e.g., Is this stick long enough to reach a given place?), are processed within a common and unique system, in the right parietal lobe (Bueti & Walsh, 2009). We assumed that the magnitude of physical properties could be processed in this system as well as the discrete (e.g., numbers) and continuous (e.g., time, space) magnitudes. Our results highlighted a disorder of novel tool-use in LBD patients, who nevertheless had no difficulty in estimating physical properties. The RBD patients were impaired in all conditions assessing the numerical cognition, refuting the predictions derived from TCM. They were also impaired in the estimation of the length but not of the weight. As associations between estimation of length and of weight, and between estimation of length and numerical cognition have been observed in the different groups, we suggest that the magnitude system be divided into subsystems. Surprisingly, we found an association between tool use and approximate calculation in LBD patients assuming an attempt to compensate tool use by calculation. Finally, it seems that tool use and numerical cognition rely on distinct neurocognitive mechanisms since the different types of magnitudes might not be processed within a common and unique system of magnitude

Page generated in 0.0434 seconds