Spelling suggestions: "subject:"grandeéchelle"" "subject:"grandeséchelles""
81 |
Stéreo multi-vues à grande échelleet de haute qualité.Vu, Hiep 05 December 2011 (has links) (PDF)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vid eo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acqu érir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différents (méthode passive). La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre avec une grande précision, et surtout moins couteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stereo multi-vues à grande échelle . Nous améliorons des méthodes précédentes et les assemblons pour créer une chaine de stereo multi-vues efficace tirant parti de l'accélération des cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel).
|
82 |
Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluationCarpen-Amarie, Alexandra 15 December 2011 (has links) (PDF)
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour le stockage et la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité, fiabilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données pour le Cloud qui soit à la fois compatible avec les interfaces standard dans le contexte du Cloud et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage de données qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications distribuées à accès intensif aux données, telles que les applications MapReduce, et des applications fortement couplées, telles que les simulations atmosphériques.
|
83 |
Caractérisation et quantification des Eléments Traces Métalliques dans les dépôts et les particules atmosphériques de la vallée d'Aspe - Mise en place d'indicateurs de la Qualité de l'Air.Veschambre, Sophie 25 April 2006 (has links) (PDF)
L'étude des apports atmosphériques des éléments traces métalliques (ETM) dans la vallée d'Aspe (Pyrénées Atlantiques) a un double objectif : (1) établir un état de référence des contaminants métalliques pour le suivi des émissions du trafic routier liés à l'ouverture du tunnel du Somport et, (2) évaluer les sources et les conditions climatologiques qui contribuent aux apports des ETM dans la vallée d'Aspe. La détermination des ETM (Al, Na, Mg, K, V, Mn, Cr, Zn, Cu, Rb, Cd, Sn, Sb, Ba, Ce, Pb et U) et des rapports isotopiques du plomb (208Pb/206Pb, 206Pb/207Pb et 208Pb/207Pb) dans les récepteurs atmosphériques (neiges fraîches, dépôts humides, particules atmosphériques et lichens) a permis de mettre en place des indicateurs de la qualité de l'air. La quantification des ETM a nécessité la mise en oeuvre de protocoles de prélèvements et d'analyses ultra-traces. Les différents récepteurs atmosphériques étudiés permettent d'intégrer une échelle temporelle journalière à pluriannuelle et un gradient spatial dans l'axe Nord-sud de la vallée et en fonction de l'altitude.<br />La vallée d'Aspe présente un niveau de contamination spécifique des zones éloignées des émissions anthropiques et les contaminants métalliques identifiés sont le Cd, Sb, Zn, Cu, Pb et Sn. Dans sa partie basse, les indicateurs de la qualité de l'air présentent une contribution des contaminants (i) liée aux émissions locales des combustions domestiques, à la pratique saisonnière de l'écobuage et au trafic routier, et (ii) aux sources anthropiques régionales de l'incinération des déchets ménagers, de l'industries métallurgique et des centres urbains. Dans sa partie haute, la vallée est soumise significativement, d'une part, à l'érosion éolienne et, d'autre part, à la contribution des sources du transport à grande échelle de l'hémisphère Nord. La caractérisation des ETM et des rapports isotopiques du plomb dans le tunnel du Somport indique (i) que le trafic routier émet significativement du Cu, Sb, Zn et Ba et (ii) bien que Pb présente de faibles émissions sa composition isotopique montre une source faiblement radiogénique du trafic routier. Toutefois, la faible circulation des véhicules dans la vallée d'Aspe ne permet pas de mettre évidence une contamination significative provenant des émissions du trafic routier.
|
84 |
Discover, model and combine energy leverages for large scale energy efficient infrastructures / Découvrir, modéliser et combiner des leviers énergétiques pour des infrastructures de calculs basse consommationRais, Issam 28 September 2018 (has links)
La consommation énergétique de nos entités de calculs à grande échelle est une problématique de plus en plus inquiétante. Il est d'autant plus inquiétant que nous nous dirigeons vers "L'exascale",machine qui calcule 10^18 opérations flottantes par secondes, soit 10 fois plus que les meilleurs machines publiques actuelles. En 2017, les data-center consommaient 7% de la demande globale et étaient responsable de 2% de l’émission globale de CO2. Avec la multiplication actuelle du nombre d'outils connectés par personne, réduire la consommation énergétique des data-centers et supercalculateurs à grande échelle est une problématique cruciale pour construire une société numérique durable.Il est donc urgent de voir la consommation énergétique comme une problématique phare de cescentres. De nombreuses techniques, ici nommé "levier", ont été développées dans le but de réduire la consommation électrique des centres de calculs, à différents niveaux : infrastructure, matériel, intergiciel et applicatif. Bien utiliser ces leviers est donc capitale pour s'approcher de l'efficience énergétique. Un grand nombre de leviers sont disponibles dans ces centres de calculs. Malgré leurs gains potentiels, il peut être compliqué de bien les utiliser mais aussi d'en combiner plusieurs en restant efficace en énergie.Dans cette thèse, nous avons abordé la découverte, compréhension et usage intelligent des leviers disponibles à grande échelle dans ces centres de calculs. Nous avons étudié des leviers de manière indépendante, puis les avons combinés à d'autres leviers afin de proposer une solution générique et dynamique à l'usage combiné des leviers. / Energy consumption is a growing concern on the verge of Exascale computing, a machine reaching 10^18 operations per seconds, 10 times the actual best public supercomputers, it became a crucial focus. Data centers consumed about 7% of total demand of electricity and are responsible of 2% of global carbon emission. With the multiplication of connected devices per person around the world, reducing the energy consumption of large scale computing system is a mandatory step to address in order to build a sustainable digital society.Several techniques, that we call leverage, have been developed in order to lower the electricalconsumption of computing facilities. To face this growing concern many solutions have beendeveloped at multiple levels of computing facilities: infrastructure, hardware, middle-ware, andapplication.It is urgent to embrace energy efficiency as a major concern of our modern computing facilities. Using these leverages is mandatory to better energy efficiency. A lot of leverages are available on large scale computing center. In spite of their potential gains, users and administrators don't fully use them or don't use them at all to better energy efficiency. Although, using these techniques, alone and combined, could be complicated and counter productive if not wisely used.This thesis defines and investigates the discovery, understanding and smart usage of leverages available on a large scale data center or supercomputer. We focus on various single leverages and understand them. We then combine them to other leverages and propose a generic solution to the dynamic usage of combined leverages.
|
85 |
Etude analytique, numérique et expérimentale du comportement mécanique des systèmes géosynthétiques : application au cas des barrières de sécurité des extensions d'ISDND / Analytical, numerical and experimental study of the mechanical behaviour of geosynthetic systems : Case of piggy-back landfill barriersTano, Bekoin,Françis, Guillaume 23 November 2016 (has links)
Les géosynthétiques (GSY) sont des matériaux polymériques utilisés dans la construction d’ouvrages géotechniques et environnementaux, en remplacement et/ou en complément de matériaux naturels. Dans les installations de stockage de déchets non dangereux (ISDND), les GSY sont utilisés comme dispositif d’étanchéité et de drainage (barrière de sécurité) afin de prévenir les infiltrations de lixiviats vers la nappe phréatique.De nos jours, la rareté des sites adaptés à la construction de nouvelles ISDND conduit de nombreux opérateurs à opter pour la création de casiers de stockage en appui sur d’anciens casiers. Dans ces ouvrages en rehausse (extensions d’ISDND), une barrière de sécurité est généralement disposée entre les anciens casiers et les nouveaux casiers. Toutefois, dans cette configuration spécifique, les risques d’instabilité au glissement translationnel de l’ouvrage sont favorisés par la présence de plusieurs interfaces GSY représentant autant de surfaces de glissement préférentielles. Par ailleurs, ces risques sont accentués par le caractère compressible des déchets qui favorise l’apparition de tassements différentiels et/ou d’effondrements localisés (formation de cavités) sous la barrière de sécurité, susceptibles d’engendrer une perte d’intégrité (tensions / déformations excessives) de cette dernière. Dès lors, la compréhension des mécanismes associés à ces phénomènes de glissement translationnel et de déformation des GSY apparait capitale pour la réussite d’un tel projet.Dans ce contexte, les travaux objet du présent mémoire de thèse se sont attachés à mieux appréhender le comportement mécanique des systèmes GSY et de leurs interactions. Cette analyse a été effectuée sous l’angle de la stabilité au glissement translationnel (à l’échelle de l’ouvrage : grande échelle) et de l’intégrité structurelle des GSY au sein des barrières de sécurité sur cavité (petite échelle).Pour y parvenir, une analyse multi-approches associant étude analytique, modélisation numérique et étude expérimentale a été mise en oeuvre.Tout d’abord, le volet analytique a porté sur une analyse comparative de dix méthodes utilisées pour l’évaluation de la stabilité au glissement translationnel et de huit méthodes de dimensionnement des GSY de renforcement sur cavité. Ces études comparatives ont permis non seulement d’évaluer les écarts entre ces méthodes, mais aussi d’identifier celles qui se prêtent le mieux à une application en extension d’ISDND.Ensuite, une Méthode Rationnelle de Modélisation des systèmes Géosynthétiques (MeRaMoG) a été développée afin de prendre en compte fidèlement le comportement mécanique des GSY et de leurs interfaces (notamment la non-linéarité du comportement en traction des GSY). Grâce à la MeRaMoG qui a été validée expérimentalement, les mécanismes intervenant et contrôlant les phénomènes de glissement et de déformation des barrières de sécurité sur talus et sur cavité ont été investigués.Enfin, un Dispositif Expérimental grande-échelle pour l’étude de la Performance des GSY de renforcement sur Cavité (DEPGeC) a été développé. Le DEPGeC est un prototype permettant de simuler le comportement mécanique des GSY sur une cavité rectangulaire et sous une contrainte de confinement pouvant atteindre 100 kPa. L’utilisation du DEPGeC a permis d’évaluer l’influence de la contrainte de confinement, de la raideur du GSY de renforcement et d’un ancrage rigide sur les déformations des GSY. / Geosynthetics (GSYs) are polymeric materials that are used in engineering and environmental constructions to replace or in addition to natural materials. In landfills, GSYs are used as a lining system to prevent leachate infiltration into groundwater.Nowadays, the scarcity of suitable sites to establish new landfills leads more and more landfill owners to build new landfill cells over older ones. In such type of construction commonly called piggy-back landfill, a new GSY lining system is often implemented between old and new cells. However, in this specific configuration, the risk of translational instability of the construction is increased since the lining system involved several interfaces with low shear strength. Such instability is related to the failure of the various interfaces within the GSY lining system and hence to the sliding of GSY layers on each other. Moreover, the potential occurrence of differential settlements and / or localized collapses (cavity) which are related to the compressible nature of the waste within the old cell could tear (excessive tensile forces / strains) the GSY lining system under the overload of the new waste. Therefore, understanding the mechanisms controlling translational slip phenomena and deformation of GSYs is essential to ensure a proper design of such a project.In this context, this PhD thesis focused on better understanding of the mechanical behaviour of GSY systems and their interactions. The study was conducted using firstly a global analysis (large scale, all over the piggy-back landfill) of the lining system in terms of translational slips between the various GSYs. Secondly, this study investigated the integrity of the GSY lining system subjected to a cavity (small scale analysis).To achieve this goal, a multi-approaches investigation involving analytical study, numerical modelling and experimental study was performed.First, the analytical part focused on a comparative analysis based on ten methods used to assess the factor of safety of translational slip and on eight methods used for the design of GSY reinforcement over cavities. These comparative studies have not only assessed the differences between these methods, but also identified those best suited to be applied in the context of piggy-back landfills.Then, a rigorous method (MeRaMoG) that addressed the key aspects of the mechanical behaviour of GSYs and interfaces (e.g., the nonlinear axial stiffness of GSYs), was developed for the numerical modelling of multi-layered geosynthetic systems. Through MeRaMoG which was experimentally validated, the mechanisms controlling the translational slip and deformation of the geosynthetic lining system on side slopes and cavity were investigated.Finally, a new large-scale testing device (DEPGeC) was developed to assess the efficiency of a GSY reinforcement to bridge a cavity. The DEPGeC is a prototype that was used to simulate the mechanical behaviour of multi-layered GSY systems over a rectangular cavity and under a confining load of up to 100 kPa. Using the DEPGeC, the influence of the applied vertical load, the stiffness of the GSY reinforcement and a perfect anchorage on the deformations of GSY, was investigated.
|
86 |
Learning Image Classification and Retrieval Models / Apprentissage de modèles pour la classification et la recherche d'imagesMensink, Thomas 26 October 2012 (has links)
Nous assistons actuellement à une explosion de la quantité des données visuelles. Par exemple, plusieurs millions de photos sont partagées quotidiennement sur les réseaux sociaux. Les méthodes d'interprétation d'images vise à faciliter l'accès à ces données visuelles, d'une manière sémantiquement compréhensible. Dans ce manuscrit, nous définissons certains buts détaillés qui sont intéressants pour les taches d'interprétation d'images, telles que la classification ou la recherche d'images, que nous considérons dans les trois chapitres principaux. Tout d'abord, nous visons l'exploitation de la nature multimodale de nombreuses bases de données, pour lesquelles les documents sont composés d'images et de descriptions textuelles. Dans ce but, nous définissons des similarités entre le contenu visuel d'un document, et la description textuelle d'un autre document. Ces similarités sont calculées en deux étapes, tout d'abord nous trouvons les voisins visuellement similaires dans la base multimodale, puis nous utilisons les descriptions textuelles de ces voisins afin de définir une similarité avec la description textuelle de n'importe quel document. Ensuite, nous présentons une série de modèles structurés pour la classification d'images, qui encodent explicitement les interactions binaires entre les étiquettes (ou labels). Ces modèles sont plus expressifs que des prédicateurs d'étiquette indépendants, et aboutissent à des prédictions plus fiables, en particulier dans un scenario de prédiction interactive, où les utilisateurs fournissent les valeurs de certaines des étiquettes d'images. Un scenario interactif comme celui-ci offre un compromis intéressant entre la précision, et l'effort d'annotation manuelle requis. Nous explorons les modèles structurés pour la classification multi-étiquette d'images, pour la classification d'image basée sur les attributs, et pour l'optimisation de certaines mesures de rang spécifiques. Enfin, nous explorons les classifieurs par k plus proches voisins, et les classifieurs par plus proche moyenne, pour la classification d'images à grande échelle. Nous proposons des méthodes d'apprentissage de métrique efficaces pour améliorer les performances de classification, et appliquons ces méthodes à une base de plus d'un million d'images d'apprentissage, et d'un millier de classes. Comme les deux méthodes de classification permettent d'incorporer des classes non vues pendant l'apprentissage à un coût presque nul, nous avons également étudié leur performance pour la généralisation. Nous montrons que la classification par plus proche moyenne généralise à partir d'un millier de classes, sur dix mille classes à un coût négligeable, et les performances obtenus sont comparables à l'état de l'art. / We are currently experiencing an exceptional growth of visual data, for example, millions of photos are shared daily on social-networks. Image understanding methods aim to facilitate access to this visual data in a semantically meaningful manner. In this dissertation, we define several detailed goals which are of interest for the image understanding tasks of image classification and retrieval, which we address in three main chapters. First, we aim to exploit the multi-modal nature of many databases, wherein documents consists of images with a form of textual description. In order to do so we define similarities between the visual content of one document and the textual description of another document. These similarities are computed in two steps, first we find the visually similar neighbors in the multi-modal database, and then use the textual descriptions of these neighbors to define a similarity to the textual description of any document. Second, we introduce a series of structured image classification models, which explicitly encode pairwise label interactions. These models are more expressive than independent label predictors, and lead to more accurate predictions. Especially in an interactive prediction scenario where a user provides the value of some of the image labels. Such an interactive scenario offers an interesting trade-off between accuracy and manual labeling effort. We explore structured models for multi-label image classification, for attribute-based image classification, and for optimizing for specific ranking measures. Finally, we explore k-nearest neighbors and nearest-class mean classifiers for large-scale image classification. We propose efficient metric learning methods to improve classification performance, and use these methods to learn on a data set of more than one million training images from one thousand classes. Since both classification methods allow for the incorporation of classes not seen during training at near-zero cost, we study their generalization performances. We show that the nearest-class mean classification method can generalize from one thousand to ten thousand classes at negligible cost, and still perform competitively with the state-of-the-art.
|
87 |
Contributions à l'apprentissage grande échelle pour la classification d'images / Contributions to large-scale learning for image classificationAkata, Zeynep 06 January 2014 (has links)
La construction d'algorithmes classifiant des images à grande échelle est devenue une t^ache essentielle du fait de la difficulté d'effectuer des recherches dans les immenses collections de données visuelles non-etiquetées présentes sur Internet. L'objetif est de classifier des images en fonction de leur contenu pour simplifier la gestion de telles bases de données. La classification d'images à grande échelle est un problème complexe, de par l'importance de la taille des ensembles de données, tant en nombre d'images qu'en nombre de classes. Certaines de ces classes sont dites "fine-grained" (sémantiquement proches les unes des autres) et peuvent même ne contenir aucun représentant étiqueté. Dans cette thèse, nous utilisons des représentations à l'état de l'art d'images et nous concentrons sur des méthodes d'apprentissage efficaces. Nos contributions sont (1) un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle et (2) un nouvel algorithme basé sur l'incorporation d'étiquettes pour apprendre sur des données peu abondantes. En premier lieu, nous introduisons un banc d'essai d'algorithmes d'apprentissage pour la classification à grande échelle, dans un cadre entièrement supervisé. Il compare plusieurs fonctions objectifs pour apprendre des classifieurs linéaires, tels que "un contre tous", "multiclasse", "classement", "classement avec pondération" par descente de gradient stochastique. Ce banc d'essai se conclut en un ensemble de recommandations pour la classification à grande échelle. Avec une simple repondération des données, la stratégie "un contre tous" donne des performances meilleures que toutes les autres. Par ailleurs, en apprentissage en ligne, un pas d'apprentissage assez petit s'avère suffisant pour obtenir des résultats au niveau de l'état de l'art. Enfin, l'arrêt prématuré de la descente de gradient stochastique introduit une régularisation qui améliore la vitesse d'entraînement ainsi que la capacité de régularisation. Deuxièmement, face à des milliers de classes, il est parfois difficile de rassembler suffisamment de données d'entraînement pour chacune des classes. En particulier, certaines classes peuvent être entièrement dénuées d'exemples. En conséquence, nous proposons un nouvel algorithme adapté à ce scénario d'apprentissage dit "zero-shot". Notre algorithme utilise des données parallèles, comme les attributs, pour incorporer les classes dans un espace euclidien. Nous introduisons par ailleurs une fonction pour mesurer la compatibilité entre image et étiquette. Les paramètres de cette fonction sont appris en utilisant un objectif de type "ranking". Notre algorithme dépasse l'état de l'art pour l'apprentissage "zero-shot", et fait preuve d'une grande flexibilité en permettant d'incorporer d'autres sources d'information parallèle, comme des hiérarchies. Il permet en outre une transition sans heurt du cas "zero-shot" au cas où peu d'exemples sont disponibles. / Building algorithms that classify images on a large scale is an essential task due to the difficulty in searching massive amount of unlabeled visual data available on the Internet. We aim at classifying images based on their content to simplify the manageability of such large-scale collections. Large-scale image classification is a difficult problem as datasets are large with respect to both the number of images and the number of classes. Some of these classes are fine grained and they may not contain any labeled representatives. In this thesis, we use state-of-the-art image representations and focus on efficient learning methods. Our contributions are (1) a benchmark of learning algorithms for large scale image classification, and (2) a novel learning algorithm based on label embedding for learning with scarce training data. Firstly, we propose a benchmark of learning algorithms for large scale image classification in the fully supervised setting. It compares several objective functions for learning linear classifiers such as one-vs-rest, multiclass, ranking and weighted average ranking using the stochastic gradient descent optimization. The output of this benchmark is a set of recommendations for large-scale learning. We experimentally show that, online learning is well suited for large-scale image classification. With simple data rebalancing, One-vs-Rest performs better than all other methods. Moreover, in online learning, using a small enough step size with respect to the learning rate is sufficient for state-of-the-art performance. Finally, regularization through early stopping results in fast training and a good generalization performance. Secondly, when dealing with thousands of classes, it is difficult to collect sufficient labeled training data for each class. For some classes we might not even have a single training example. We propose a novel algorithm for this zero-shot learning scenario. Our algorithm uses side information, such as attributes to embed classes in a Euclidean space. We also introduce a function to measure the compatibility between an image and a label. The parameters of this function are learned using a ranking objective. Our algorithm outperforms the state-of-the-art for zero-shot learning. It is flexible and can accommodate other sources of side information such as hierarchies. It also allows for a smooth transition from zero-shot to few-shots learning.
|
88 |
Simulation numérique de jets liquides cisaillés par une phase rapide : dynamique de battement à grande échelle et intéraction avec les structures tourbillonnaires / Numerical simulation of liquid jets sheared by a high-speed stream : flapping dynamics and interaction with vortical structuresOdier, Nicolas 18 December 2014 (has links)
L'injection d'un mélange carburant/comburant dans une chambre de combustion d'un turboréacteur ou d'un moteur-fusée fait intervenir un jet liquide, cisaillé par un gaz rapide. Le jet liquide peut être sous certaines conditions sujet à un phénomène de battement à grande échelle. Ce phénomène, dont les mécanismes de base sont aujourd'hui mal connus, peut avoir des conséquences importantes sur la combustion. Nous réalisons dans ce travail une étude numérique de jets liquides cisaillés par une phase rapide, en portant une attention particulière à l'étude de l'interaction entre les structures tourbillonnaires de la phase rapide et le jet liquide. Une nappe liquide plane cisaillée de part et d'autre par une phase rapide est analysée dans un premier temps . Les mécanismes de déstabilisation de cette nappe liquide sont étudiés, ainsi que le contrôle passif du phénomène de battement. Des jets liquides coaxiaux, cisaillés par une couronne de phase rapide, sont ensuite analysés. Les mécanismes de déstabilisation à grande échelle sont étudiés, ainsi que le contrôle passif et actif de cette déstabilisation. La simulation d'une configuration d'écoulement réaliste eau/air est enfin réalisée, en interaction avec les expérimentateurs du LEGI. Une attention particulière est portée à l'écoulement se produisant au sein de la buse d'injection. / Fuel injection in an aircraft engine or in a rocket engine involves a liquid jet sheared by a high-velocity gas. The liquid jet can display, under some specific conditions, a flapping motion. This flapping motion, the basic mechanisms of which are still poorly understood, can significantly impact the combustion process. We perform in this work a numerical study of liquid jets interacting with a high-speed stream and focus on the interactions between the vortical structures in this high-speed stream and the liquid jet. A plane liquid jet surrounded by two high-speed streams is first analysed. The mechanisms leading to the flapping motion are studied, as well as the passive control of this instability. A liquid coaxial jet, sheared by an annular high speed stream, is next analysed. The mechanisms leading to the flapping motion are also analysed, as well as passive and active strategies for controlling this instability. Finally, we perform simulations of an experimental set-up studied at LEGI, focusing on the flow inside the nozzle.
|
89 |
Simulations Monte Carlo de régions d'interaction en corotation dans le vent d'étoiles chaudesCarlos-Leblanc, Danny 06 1900 (has links)
No description available.
|
90 |
Algorithmes parallèles pour le suivi de particules / Parallel algorithms for tracking of particlesBonnier, Florent 12 December 2018 (has links)
Les méthodes de suivi de particules sont couramment utilisées en mécanique des fluides de par leur propriété unique de reconstruire de longues trajectoires avec une haute résolution spatiale et temporelle. De fait, de nombreuses applications industrielles mettant en jeu des écoulements gaz-particules, comme les turbines aéronautiques utilisent un formalisme Euler-Lagrange. L’augmentation rapide de la puissance de calcul des machines massivement parallèles et l’arrivée des machines atteignant le petaflops ouvrent une nouvelle voie pour des simulations qui étaient prohibitives il y a encore une décennie. La mise en oeuvre d’un code parallèle efficace pour maintenir une bonne performance sur un grand nombre de processeurs devra être étudié. On s’attachera en particuliers à conserver un bon équilibre des charges sur les processeurs. De plus, une attention particulière aux structures de données devra être fait afin de conserver une certaine simplicité et la portabilité et l’adaptabilité du code pour différentes architectures et différents problèmes utilisant une approche Lagrangienne. Ainsi, certains algorithmes sont à repenser pour tenir compte de ces contraintes. La puissance de calcul permettant de résoudre ces problèmes est offerte par des nouvelles architectures distribuées avec un nombre important de coeurs. Cependant, l’exploitation efficace de ces architectures est une tâche très délicate nécessitant une maîtrise des architectures ciblées, des modèles de programmation associés et des applications visées. La complexité de ces nouvelles générations des architectures distribuées est essentiellement due à un très grand nombre de noeuds multi-coeurs. Ces noeuds ou une partie d’entre eux peuvent être hétérogènes et parfois distants. L’approche de la plupart des bibliothèques parallèles (PBLAS, ScalAPACK, P_ARPACK) consiste à mettre en oeuvre la version distribuée de ses opérations de base, ce qui signifie que les sous-programmes de ces bibliothèques ne peuvent pas adapter leurs comportements aux types de données. Ces sous programmes doivent être définis une fois pour l’utilisation dans le cas séquentiel et une autre fois pour le cas parallèle. L’approche par composants permet la modularité et l’extensibilité de certaines bibliothèques numériques (comme par exemple PETSc) tout en offrant la réutilisation de code séquentiel et parallèle. Cette approche récente pour modéliser des bibliothèques numériques séquentielles/parallèles est très prometteuse grâce à ses possibilités de réutilisation et son moindre coût de maintenance. Dans les applications industrielles, le besoin de l’emploi des techniques du génie logiciel pour le calcul scientifique dont la réutilisabilité est un des éléments des plus importants, est de plus en plus mis en évidence. Cependant, ces techniques ne sont pas encore maÃotrisées et les modèles ne sont pas encore bien définis. La recherche de méthodologies afin de concevoir et réaliser des bibliothèques réutilisables est motivée, entre autres, par les besoins du monde industriel dans ce domaine. L’objectif principal de ce projet de thèse est de définir des stratégies de conception d’une bibliothèque numérique parallèle pour le suivi lagrangien en utilisant une approche par composants. Ces stratégies devront permettre la réutilisation du code séquentiel dans les versions parallèles tout en permettant l’optimisation des performances. L’étude devra être basée sur une séparation entre le flux de contrôle et la gestion des flux de données. Elle devra s’étendre aux modèles de parallélisme permettant l’exploitation d’un grand nombre de coeurs en mémoire partagée et distribuée. / The complexity of these new generations of distributed architectures is essencially due to a high number of multi-core nodes. Most of the nodes can be heterogeneous and sometimes remote. Today, nor the high number of nodes, nor the processes that compose the nodes are exploited by most of applications and numerical libraries. The approach of most of parallel libraries (PBLAS, ScalAPACK, P_ARPACK) consists in implementing the distributed version of its base operations, which means that the subroutines of these libraries can not adapt their behaviors to the data types. These subroutines must be defined once for use in the sequential case and again for the parallel case. The object-oriented approach allows the modularity and scalability of some digital libraries (such as PETSc) and the reusability of sequential and parallel code. This modern approach to modelize sequential/parallel libraries is very promising because of its reusability and low maintenance cost. In industrial applications, the need for the use of software engineering techniques for scientific computation, whose reusability is one of the most important elements, is increasingly highlighted. However, these techniques are not yet well defined. The search for methodologies for designing and producing reusable libraries is motivated by the needs of the industries in this field. The main objective of this thesis is to define strategies for designing a parallel library for Lagrangian particle tracking using a component approach. These strategies should allow the reuse of the sequential code in the parallel versions while allowing the optimization of the performances. The study should be based on a separation between the control flow and the data flow management. It should extend to models of parallelism allowing the exploitation of a large number of cores in shared and distributed memory.
|
Page generated in 0.0824 seconds