Spelling suggestions: "subject:"[SPI:OTHER] engineering ciences/other"" "subject:"[SPI:OTHER] engineering ciences/ether""
521 |
Simulation numérique du reformage autothermique du méthaneCaudal, Jean 15 February 2013 (has links) (PDF)
Le syngas est un mélange gazeux de CO et H2 qui constitue un intermédiaire important dans l'industrie pétrochimique. Plusieurs approches sont utilisées pour le produire. L'oxydation partielle non catalytique (POX) et le reformage à la vapeur (SMR) en font partie. Le reformage auto thermique du méthane (ATR) combine quant à lui ces deux procédés au sein d'un même réacteur. L'amélioration du rendement global du procédé ATR requiert une meilleure caractérisation du comportement des gaz au sein de la chambre. La simulation numérique apparaît comme un outil efficace pour y parvenir. Pour réduire le coût CPU, c'est généralement l'approche RANS (Reynolds Average Numerical Simulation) qui est privilégiée pour la simulation complète de la chambre. Cette approche repose sur l'utilisation de modèles, parmi lesquels le modèle de combustion turbulente, qui a pour objectif de représenter les interactions entre la turbulence et la réaction chimique au sein du mélange. Plusieurs stratégies ont été proposées pour le calculer, qui bénéficient globalement d'une large expérience pour les systèmes classiques mettant en jeu la combustion. Cependant, les flammes observées dans les réacteurs ATR présentent des propriétés assez différentes de ces configurations classiques. La validité des modèles de combustion turbulente classiques doit donc y être vérifiée. L'objectif de cette thèse est de répondre à ce besoin, en testant la validité de différents modèles de combustion turbulente. La première partie du travail a consisté à analyser les propriétés des flammes CH4/O2 enrichies en vapeur d'eau à haute pression, et a notamment permis le développement d'une méthode d'évaluation des temps caractéristiques d'un système chimique. Dans un deuxième temps, une expérience numérique à l'aide d'un code DNS a été réalisée, afin de servir de référence pour tester a priori sur des configurations ATR plusieurs modèles RANS de combustion turbulente couramment utilisés dans le milieu industriel.
|
522 |
Rendu visuel de surfaces nano-structurées : effet de l'ordre à courte distanceMatsapey, Natalia 06 June 2013 (has links) (PDF)
Les surfaces nanostructurées permettent d'obtenir des effets colorés gonio-apparents lorsque les nanostructures présentent des dimensions de l'ordre des longueurs d'onde du spectre visible. ces couleurs sont habituellement modélisées par le biais d'interactions de types "interférences" ou "cristaux photoniques" entre le rayonnement lumineux et une structure modèle. dans cette thèse, l'anodisation d'aluminium est utilisée comme méthode de structuration à l'échelle submicronique. cette technique présente l'avantage d'être mature industriellement et de permettre de structurer de grandes surfaces. des effets colorés sont observés même si les structures obtenues ne sont pas parfaitement ordonnées. le but de cette thèse est de comprendre les phénomènes optiques mis en jeu dans l'obtention de ces effets. ce manuscrit se divise donc en deux parties principales, toutes deux basées sur une étude de la littérature existante. afin d'établir un parallèle entre caractérisation expérimentale et simulation numérique, la première partie présente l'outil de caractérisation optique développé. la seconde est dédiée à l'étude des effets colorés de certaines surfaces d'aluminium anodisé. cette partie propose une compréhension des phénomènes d'interaction de la lumière avec la structure d'aluminium anodisé se basant sur les caractérisations optiques et microstructurales des échantillons, associées à une modélisation de l'interaction entre rayonnement et matière structurée. cette étude montre que les structures réelles présentent un ordre à courte distance. les effets colorés sont simulés par la méthode modale de fourier par le biais de structures modèles avec un certain niveau de désordre.
|
523 |
Etude de l'applicabilité des échantillonneurs passifs POCIS et Chemcatcher pour le suivi des pesticides en milieux aquatiques.Ibrahim, Imtiaz 06 June 2013 (has links) (PDF)
Les pesticides sont aujourd'hui reconnus comme ayant des effets néfastes sur l'environnement et sur la santé humaine. La surveillance du niveau de pollution par les pesticides dans les écosystèmes aquatiques implique la mise en place d'une stratégie d'échantillonnage basée sur des prélèvements ponctuels, suivi d'une étape de traitement et d'analyse des échantillons. Par ailleurs, la concentration de ces polluants est sujette à de nombreuses fluctuations et par conséquent une faible fréquence d'échantillonnage ne donne pas une image représentative du réel niveau de pollution et de l'évolution de la qualité des masses d'eau.Ainsi, ce travail de recherche porte sur une méthode alternative d'échantillonnage basée sur l'utilisation d'échantillonneurs passifs, afin de suivre le niveau de contamination des eaux de surface et souterraines par les pesticides. Deux types d'échantillonneurs passifs, les Chemcatchers (version polaire) et les POCIS (Polar Organic Chemical Intégrative Sampler), ont été étudiés afin de comparer leurs efficacités comme outils de diagnostic et de surveillance de la pollution des milieux aquatiques par les pesticides polaires. La première phase de l'étude concerne la validation de ces outils, basée sur la calibration en laboratoire et in-situ des POCIS et des Chemcatchers, afin de permettre leurs utilisations en tant qu'outils d'analyse quantitative pour l'évaluation de la concentration moyenne des pesticides dans les masses d'eau. La deuxième partie du travail est plus orientée sur l'applicabilité de ces échantillonneurs passifs pour l'étude de la distribution spatiale des pesticides, de l'identification des sources de pollution et du transfert des polluants (eau de surface/eau souterraine).
|
524 |
Analyse biomécanique multidimensionnelle du geste de tourner le volant chez les conducteurs sans déficiences motricesSchiro, Jessica 20 March 2013 (has links) (PDF)
Tourner le volant d'une automobile peut s'avérer difficile pour les conducteurs ayant des déficiences motrices des membres supérieurs. En effet, ce mouvement demande une grande mobilité et une force musculaire non négligeable. A ce jour, les directions assistées automobiles sont réglées uniquement sur le ressenti des conducteurs sans déficiences motrices. Le projet ANR VTT VolHand, dans lequel ce travail de recherche s'inscrit, ambitionne d'apporter une réponse à cette problématique. L'objectif de cette thèse est de renseigner la biomécanique du geste déjà chez le conducteur sans déficiences motrices (sain). Pour cela, l'interaction main/volant, ainsi que la cinématique (ex. angles articulaires) et la dynamique (ex. efforts sur volant, efforts articulaires) du geste de tourner le volant sont étudiés au travers de plusieurs analyses multidimensionnelles multivariables (atemporelle et temporelle). La méthode originale proposée s'appuie sur un découpage flou du volant et des variables cinématiques et dynamiques. La population expérimentée compte une centaine de sujets, dont 23 sujets sans déficience motrice. La plateforme expérimentale regroupe principalement un simulateur automobile compact permettant le recueil des efforts développés par chaque main, une consigne de suivi de trajectoire incitant le conducteur à reproduire un angle désiré et un système optoélectronique mesurant le geste de tourner le volant.Les résultats de l'analyse de l'interaction main/volant mettent en évidence 3 profils de conducteurs : les conducteurs croiseurs, les conducteurs croiseurs asymétriques et les conducteurs non croiseurs. L'analyse des variables cinématiques et dynamiques montrent que les variables dynamiques résultant du tirer/pousser le volant sont discriminantes. Deux nouveaux profils sont alors identifiés : les pousseurs moyens et les tireurs. En majorité, les conducteurs sains tendent à croiser les mains et à pousser sur le volant lors de la réalisation d'un geste de tourner le volant à basse vitesse.Plusieurs perspectives sont proposées à court terme, à moyen terme et à long terme. L'une d'entre elles concerne l'adaptation de l'assistance aux caractéristiques motrices des conducteurs avec déficience motrice.
|
525 |
Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle.Benassi, Romain 19 June 2013 (has links) (PDF)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
|
526 |
Analysis and simulation of multimodal cardiac images to study the heart functionPrakosa, Adityo 21 January 2013 (has links) (PDF)
This thesis focuses on the analysis of the cardiac electrical and kinematic function for heart failure patients. An expected outcome is a set of computational tools that may help a clinician in understanding, diagnosing and treating patients suffering from cardiac motion asynchrony, a specific aspect of heart failure. Understanding the inverse electro-kinematic coupling relationship is the main task of this study. With this knowledge, the widely available cardiac image sequences acquired non-invasively at clinics could be used to estimate the cardiac electrophysiology (EP) without having to perform the invasive cardiac EP mapping procedures. To this end, we use real clinical cardiac sequence and a cardiac electromechanical model to create controlled synthetic sequence so as to produce a training set in an attempt to learn the cardiac electro-kinematic relationship. Creating patient-specific database of synthetic sequences allows us to study this relationship using a machine learning approach. A first contribution of this work is a non-linear registration method applied and evaluated on cardiac sequences to estimate the cardiac motion. Second, a new approach in the generation of the synthetic but virtually realistic cardiac sequence which combines a biophysical model and clinical images is developed. Finally, we present the cardiac electrophysiological activation time estimation from medical images using a patient-specific database of synthetic image sequences.
|
527 |
Caractérisation de la performance temporelle et de la consommation électrique de systèmes embarqués basés sur des plates-formes multiprocesseurs/coeurs et mettant en oeuvre du logiciel temps réel : FORECAST : perFORmance and Energy Consumption AnalysiS ToolKriegel, Joffrey 29 January 2013 (has links) (PDF)
La multiplication des plate-formes embarquées disponibles sur le marché rend de plus en plus complexe le choix d'une plate-forme pour un produit. L'arrivée des architectures multi-processeurs augmente encore plus ce phénomène. Dans le contexte industriel actuel, il est nécessaire de disposer d'une méthodologie et des outils associés permettant d'évaluer rapidement ces plate-formes et celles qui apparaitront dans le futur sur le marché afin de faire des premiers choix tôt dans le cycle de conception des produits. Précédemment, il était nécessaire d'attendre l'arrivée sur le marché des plate-formes de test afin d'exécuter sur ces plate-formes des benchmarks et des applications afin d'évaluer leur performance et leur consommation. Nous proposons ici une méthodologie et les outils associés permettant de modéliser un système (logiciel et matériel) puis d'estimer ses performances et sa consommation d'énergie. Notre méthodologie s'appuie sur des modèles simples à mettre en œuvre utilisant uniquement des informations présentes dans les documents techniques des constructeurs. Autre avantage de notre approche, la simulation réalisée s'appuie sur du code exécutable généré automatiquement afin de s'exécuter en natif sur un ordinateur. Cela permet une exécution rapide des scénarios de test et offre la possibilité de faire de l'exploration d'architectures. Nous avons procédé à diverses validations en utilisant des applications variées (décodeur H.264, application radio, benchmarks classiques, ...) et en comparant les performances et la consommation estimée avec l'équivalent sur des plate-formes réelles (OMAP3/4, i.MX6, QorIQ, ...). Cela a permis d'évaluer l'erreur d'estimation de FORECAST (l'outil développé lors de cette thèse) et ainsi de s'assurer que le taux d'erreur reste dans des bornes admissibles c'est-à-dire inferieures à 20%. Nous avons d'un autre côté comparé notre approche avec celles développées dans deux autres projets OpenPEOPLE (ANR) et COMCAS (Catrene) afin de s'assurer que le rapport effort/précision de notre approche est intéressant.
|
528 |
Evaluation of power management strategies on actual multiprocessor platformsKhan Jadoon, Jabran 25 March 2013 (has links) (PDF)
The purpose of this study is to investigate how power management strategies can be efficiently exploited in actual platforms. Primarily, the challenges in multicore based embedded systems lies in managing the energy expenditure, determining the scheduling behavior and establishing methods to monitor power and energy, so as to meet the demands of the battery life and load requirements. The work presented in this dissertation is a study of low power-aware strategies in the practical world for single and multiprocessor platforms. The approach used for this study is based on representative multiprocessor platforms (real or virtual) to identify the most influential parameters, at hardware as well as application level, unlike many existing works in which these parameters are often underestimated or sometimes even ignored. The work analyzes and compares in detail various experimentations with different power policies based on Dynamic Voltage and Frequency Scaling (DVFS) and Dynamic Power Switching (DPS) techniques, and investigates the conditions at which these policies are effective in terms of energy savings. The results of these investigations reveal many interesting and notable conclusions that can serve as prerequisites for the efficient use of power management strategies. This work also shows the potential of advanced domain specific power strategies compared to real world available strategies that are general purpose based in their majority. Finally, some high level consumption models are derived from the different energy measurement results to let the estimation of power management benefits at early stages of a system development.
|
529 |
Restauration d'images 3D de microscopie de fluorescence en présence d'aberrations optiquesBen Hadj, SaÏma 17 April 2013 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la restauration d'image tridimensionnelle de microscopie de fluorescence. Deux difficultés majeures dans ce système d'imagerie sont traitées. La première est le flou variable en profondeur qui est dû aux aberrations induites par la variation des indices de réfraction dans le système optique et le spécimen imagé. La deuxième est le bruit qui est principalement dû au processus de comptage de photons. L'objectif de cette thèse est de réduire ces distorsions afin de fournir aux biologistes une image de meilleure qualité possible. Dans la première partie de cette thèse, nous étudions les modèles d'approximation du flou variable en profondeur et nous choisissons un modèle adéquat au problème d'inversion. Dans ce modèle, la réponse impulsionnelle (RI) variable en profondeur est approchée par une combinaison convexe d'un ensemble de RIs invariables spatialement. Nous développons pour ce modèle deux méthodes rapides de restauration non-aveugle par minimisation d'un critère régularisé, chacune d'elles est adaptée au type de bruit présent dans les images de microscopie confocale ou à champ large. Dans la deuxième partie, nous abordons le problème de restauration aveugle et proposons deux méthodes dans lesquelles le flou variable en profondeur et l'image sont conjointement estimés. Dans la première méthode, la RI est estimée en chaque voxel du volume considéré afin de laisser une grande liberté sur la forme de la RI, tandis que dans la deuxième méthode, la forme de la RI est contrainte par une fonction gaussienne afin de réduire le nombre de variables inconnues et l'espace des solutions possibles. Dans ces deux méthodes d'estimation aveugle, l'effet des aberrations optiques n'est pas efficacement estimé en raison du manque d'information. Nous améliorons ces méthodes d'estimation en alternant des contraintes dans les domaines fréquentiel et spatial. Des résultats sont montrés en simulation et sur des données réelles.
|
530 |
Microréseaux îlotables : étude et coordination des protections des générateurs et du réseauSalha, Fouad 16 November 2010 (has links) (PDF)
L'intégration des énergies renouvelables a conduit à introduire la notion d'utilisation locale de ces nouvelles sources de production. Nous pouvons définir le paradigme de microréseau comme une agrégation de plusieurs sources d'énergie distribuée qui peuvent alimenter leurs charges locales. Ces microréseaux peuvent être îlotables pour garantir la continuité de service et l'alimentation des charges. Pour assurer la fiabilité du réseau, une stratégie de protection des générateurs et du microréseau lui-même a été proposée. Dans ce mémoire, les points communs et les différences entre les générateurs classiques et les générateurs connectés au réseau à l'aide de convertisseur d' d'électronique de puissance sont présentés. Ensuite, nous présentons la conception d'une source de tension à base d'une micro-turbine à gaz comme source d'énergie primaire contrôlable. Nous étudions les possibilités pour le générateur de demeurer connecté dans les conditions du creux de tension (fault-ride-through) tout en étant protégé contre les surintensités. Nous avons proposé deux solutions différentes permettant de limiter ces courants du générateur. De plus, pour assurer la continuité d'alimentation des charges en deux modes de fonctionnement, nous avons intégré un détecteur de l'ilotage basé sur le relais ROCOF dans le système de commande du générateur. Une validation expérimentale pour ces travaux a été réalisée en utilisant la simulation temps réel PHIL. Finalement, un plan de protection coordonnée valide dans les deux modes de fonctionnement et avec les différents types de source est présenté. Cette stratégie a été testée sur un exemple de microréseau simulé sur le simulateur temps réel
|
Page generated in 0.0932 seconds