Spelling suggestions: "subject:"[SPI:OTHER] engineering ciences/other"" "subject:"[SPI:OTHER] engineering ciences/ether""
341 |
Railways EMC : Assessment of Infrastructure ImpactCozza, Andrea 22 June 2005 (has links) (PDF)
During the last three decades, electronic devices have conquered the railway domain, taking the place previously held by electromechanical devices, thanks to higher performances and lower costs. The price of this "revolution" is the fact that, in order to work properly and reliably, electronic systems must be fairly immune to the effect of external interferers, while, at the same time, they are not to electromagnetically pollute the environment they work in. These issues are dealt with by electromagnetic Compatibility (EMC) whereas several international EMC standardization committees work on the definition of tests and rules the manufacturers must comply with. In the European Union, the reference for EMC issues in the railway domain is set by the CENELEC standard EN 50121, which deals with several aspects of a generic railway system, from the power-supply infrastructure to rolling stocks and signalling circuits. The introduction of this standard in 1996 has had a strong impact on rolling stock manufacturers, who are now required to test their products for EMC compliancy. As opposed to the automotive domain, the testing of trains cannot be performed in standard facilities, such as anechoic chambers, so that they have to be tested on actual railway lines, typically on the customer's. Industrial experience has shown that results obtained in this way are usually site-dependent, something that is against the very idea of a standard. The aim of this work is to prove the importance of the infrastructure in radiated emission tests, showing that the test results are site-dependent, thus subject to misunderstandings and misinterpretations. To this end, the features of a generic railway system are briefly described, pointing out the great variability in actual configurations, together with the absence of standard solutions. Subsequently, the electromagnetic modelling of a railway system is introduced, dealing with both propagation and radiation phenomena; in particular, the main topic here addressed is the modelling of supply-lines, through a quasi-TEM approach. The finite conductivity of the soil is taken into account by means of a closed-form formulation, thus avoiding numerical methods, and overcoming the limitations of Carson's model. Moreover, special attention is paid to discontinuities that would increase the model complexity, proposing approximated descriptions supported by numerical results. Results obtained with this model are then validated through several measurement campaigns carried out on actual railway lines, proving the effectiveness of the approach here pursued. The model is then employed in order to prove that some criteria in the standard EN 50121, specifically introduced in order to avoid site-dependency, are not realistic, thus leaving this issue unresolved. To this end, numerical examples are considered, assessing the impact of the infrastructure by comparing results obtained with realistic site configurations and with the ideal one envisaged by the standard. These comparisons are at the base of a tentative procedure that would allow to avoid the misinterpretations that triggered this work. Unfortunately, this approach requires an accurate description of the test-site. Since this is hardly the case, an alternative experimental characterization of the site is proposed, based on magnetic field measurements. This approach, involving the solution of an inverse problem, is shown to be feasible through a numerical validation, though its practical utilization requires efficient optimization techniques.
|
342 |
Capteurs acoustiquesFriedt, Jean-Michel 21 June 2010 (has links) (PDF)
The central topic of all the discussions in this manuscript is around acoustic-sensor based measurement systems. Throughout this document, \acoustic" means the propagation of a mechanical wave on, or within, a substrate. However, we will discuss many other physical principles applied for sensing techniques, whether optical, scanning probe microscopy, electrochemistry.
|
343 |
Traitement d'eaux huileuses par photocatalyse h��t��rog��ne : application �� la d��pollution des eaux de calesCazoir, David-Alexandre 13 December 2011 (has links) (PDF)
Afin de r��duire la quantit�� d'hydrocarbures d��vers��s dans le milieu marin, les navires de la flotte marchande et, depuis peu, les navires militaires sont tenus de contr��ler leurs rejets huileux. Par exemple, seules les eaux de cales dont la concentration en huile (indice hydrocarbure) est inf��rieure �� 15 ppmv peuvent ��tre d��vers��es en mer (Marpol 73/78). Au-del�� de cette teneur, et si le stockage �� bord n'est pas envisageable, un traitement avant rejet devient alors in��vitable. Cependant, les traitements actuels des eaux de cales se sont av��r��s jusqu'ici insuffisants. La photocatalyse h��t��rog��ne, m��thode largement utilis��e dans le cas du traitement d'effluents gazeux et liquides, a ainsi ��t�� propos��e dans ce travail. L'abattement de l'indice hydrocarbure a ��t�� suivi par analyse GC-MS. D��s lors, apr��s avoir mis en ��vidence la faisabilit�� et les limites du proc��d�� batch, un r��acteur photocatalytique �� a��ration diffus��e (DAPR) a ��t�� d��velopp�� afin de rem��dier au manque d'oxyg��ne dissous de l'effluent r��el. Comparativement au traitement dans le r��acteur batch, une meilleure efficacit�� de la d��gradation a ��t�� observ��e dans le DAPR. Cependant, l'analyse parall��le (ATD-GC-MS) de l'��volution de la composition de la phase gazeuse a montr�� qu'une quantit�� non n��gligeable de compos��s organiques volatils (COV) y ��taient alors ��mis. Enfin, les nalcanes ont ��t�� identifi��s comme ��tant les compos��s les plus r��fractaires au traitement photocatalytique et le pentad��cane a alors ��t�� choisi comme polluant mod��le des eaux de cales pour une analyse cin��tique.
|
344 |
Cooperative perception : Application in the context of outdoor intelligent vehicle systemsLi, Hao 21 September 2012 (has links) (PDF)
The research theme of this dissertation is the multiple-vehicles cooperative perception (or cooperative perception) applied in the context of intelligent vehicle systems. The general methodology of the presented works in this dissertation is to realize multiple-intelligent vehicles cooperative perception, which aims at providing better vehicle perception result compared with single vehicle perception (or non-cooperative perception). Instead of focusing our research works on the absolute performance of cooperative perception, we focus on the general mechanisms which enable the realization of cooperative localization and cooperative mapping (and moving objects detection), considering that localization and mapping are two underlying tasks for an intelligent vehicle system. We also exploit the possibility to realize certain augmented reality effect with the help of basic cooperative perception functionalities; we name this kind of practice as cooperative augmented reality. Naturally, the contributions of the presented works consist in three aspects: cooperative localization, cooperative local mapping and moving objects detection, and cooperative augmented reality.
|
345 |
Etude théorique et expérimentale de l'influence des paramètres structuraux sur la relaxation thermique de nano-composites excités par impulsions laser femtosecondeGingreau, Clémence 02 November 2012 (has links) (PDF)
Le travail présenté dans ce mémoire porte sur l'étude de l'influence de paramètres structuraux sur le comportement thermique de nano-composites : particules métalliques immergées dans un milieu transparent diélectrique. La première partie du travail est consacrée à la réalisation d'un montage expérimental de thermoréflectance pompe-sonde résolu en temps. L'expérience mise en place utilise un laser Ti:Saphir impulsionnel délivrant des impulsions de 100 fs toutes les 12 ns. Le montage permet de faire des mesures optiques en réflexion et en transmission sur des échantillons de taille nanométrique et est sensible à des variations relatives pouvant atteindre 10-7. Une seconde partie est destinée à la présentation des échantillons: réalisation et morphologie. Les échantillons étudiés sont composés de nanoparticules en or ou en argent. Les particules sont sphériques pour les plus petites, et tendent vers des oblates en grossissant. La taille des particules varie de 2,2 nm à une dizaine de nm de rayon moyen. Les particules sont réparties aléatoirement dans les matrices ou en chaînes et le nombre de couches des nano-composites varie suivant les échantillons. La dernière partie du travail rapporte les résultats expérimentaux obtenus et une comparaison avec des résultats numériques basés sur un modèle théorique à deux températures. Les différents échantillons ont été comparés afin de mettre en avant l'influence des paramètres: forme des particules, matrice, taille des particules, métal, nombre de couches et organisation des particules.
|
346 |
Modélisation numérique multiphysiques couplés - Application à un projectile supersoniqueLuu, Van Thuan 26 October 2012 (has links) (PDF)
La recherche constante de l'amélioration des modélisations complexes multi-physiques est aujourd'hui un enjeu primordial et être capable de proposer de telles approches devient une nécessité à la fois dans un besoin d'analyse fine et d'amélioration des performances des systèmes ainsi étudiés. Par exemple, proposer des systèmes balistiques de nouvelle génération nous force à maîtriser à la fois l'aérodynamique externe et ses transferts thermiques associés tout en y intégrant la dynamique du vol et les possibles modifications de la géométrie liés aux agressions thermiques. S'attaquer à un tel système couplé constitue la motivation première de ce travail. Cependant, résoudre des systèmes si fortement couplés impose de proposer une véritable stratégie dans la modélisation retenue. La technique des frontières immergées a été retenue et intégrée à un solveur compressible s'appuyant sur un générateur de maillage automatique structure en 2nTree. Avant même de s'attaquer aux mécanismes d'ablation, le travail s'est plus particulièrement focalisé sur la caractérisation d'écoulements externes autour de projectiles, académique dans un premier temps pour très vite converger vers des projectiles SOCBT et des munitions flèches volant à très grandes vitesses. La qualité des résultats obtenus et les excellentes corrélations avec les résultats de la littérature nous ont encouragé à poursuivre le développement par un couplage avec un modèle de dynamique du vol à 6° de liberté et la prise en compte de l'échauffement du projectile pour tenir compte des conditions en vol (notamment la stabilité du projectile). Les flux thermiques peuvent également engendrer des dégradations thermiques et le modèle proposé permet la prise en compte des phénomènes d'ablation. Bien que sa modélisation soit simpliste dans un premier temps, le modèle proposé a permis de décrire de manière assez facile un problème à frontière mobile comme l'est un mécanisme d'ablation. Les calculs ont soulignés le comportement intéressant du modèle numérique sur des cas académiques et sur des ailettes caractéristiques d'une munition flèche. Un calcul couplé mécanique des fluides/thermique du projectile/ ablation témoigne du fort potentiel du modèle ainsi proposé.
|
347 |
Etude de l'émission et des propriétés de combustion des composés organiques volatils potentiellement impliqués dans les feux de forêts accélérésCourty, Léo 29 October 2012 (has links) (PDF)
La plupart des espèces végétales impliquées dans les feux de forêts produisent et émettent des composés organiques volatils (COV). Les modèles physiques de propagation des feux n'intègrent pas jusqu'à présent la combustion de ces composés et l'objectif de cette étude est de fournir des données expérimentales et numériques afin d'améliorer ces modèles pour mieux prévoir et contrôler les incendies. Les émissions de cinq espèces végétales ont été analysées en fonction de la température à l'aide d'un pyrolyseur flash : Thymus vulgaris, Rosmarinus officinalis, Lavandula stoechas, Cistus albidus et Pinus pinea. Les vitesses fondamentales de flamme, longueurs de Markstein et épaisseurs de flamme de mélanges avec l'air de trois COV majoritaires (-pinène, limonène et p-cymène) sont déterminées expérimentalement en fonction de la richesse et de la température à l'aide de la technique des flammes à expansion sphérique. Des simulations numériques avec le code PREMIX de la bibliothèque CHEMKIN sont également effectuées pour des molécules proches. Différentes études ont montré que les feux de forêts peuvent se comporter de manière surprenante, la vitesse de propagation et l'énergie libérée augmentant brutalement. Ce phénomène est connu sous le nom de feux de forêts accélérés. Une approche d'explication thermochimique, basée sur l'inflammation d'un prémélange COV/air accumulé au bas d'un canyon, a été proposée. Les données présentées dans ce travail permettent aussi d'étudier la validité de cette hypothèse. Des études expérimentales et théoriques sur le sens de diffusion des COV et leurs limites d'inflammabilité sont également menées afin d'étudier en détail cette hypothèse.
|
348 |
Commande prédictive robuste par des techniques d'observateurs à base d'ensembles zonotopiquesLe, Vu Tuan Hieu 22 October 2012 (has links) (PDF)
L'objectif de cette thèse est d'apporter des réponses à deux problèmes importants dans le domaine de l'automatique : l'estimation d'état et la commande prédictive robuste sous contraintes pour des systèmes incertains, en se basant sur des méthodes ensemblistes, plus précisément liées aux ensembles zonotopiques. Les incertitudes agissant sur le système sont modélisées de façon déterministe, elles sont donc inconnues mais bornées par des ensembles connus.Dans ce contexte, la première partie de la thèse développe une méthode d'estimation afin d'élaborer à chaque instant un ensemble zonotopique contenant l'état du système malgré la présence de perturbations, de bruits de mesure et d'incertitudes paramétriques définies par intervalle. Cette méthode est fondée sur la minimisation du P-rayon d'un zonotope, critère original permettant de caractériser la taille de l'ensemble zonotopique et réalisant un bon compromis entre la complexité et la précision de l'estimation. Cette approche est tout d'abord développée pour les systèmes mono-sortie, puis étendue au cas des systèmes multi-sorties, dans un premier temps par des extensions directes de la solution mono-sortie (le système multi-sorties est considéré comme plusieurs systèmes mono-sortie). Une autre solution est ensuite proposée, qui conduit à résoudre un problème d'optimisation de type Inégalités Matricielles Polynomiales en utilisant une méthode de relaxation. Les approches précédentes n'étant que des extensions de la solution à une seule sortie, et malgré leurs bons résultats obtenus en simulation, une démarche originale, dédiée aux systèmes multi-sorties, fondée sur l'intersection entre un polytope et un zonotope, est finalement développée et validée.La deuxième partie de la thèse aborde la problématique de la commande robuste par retour de sortie pour des systèmes incertains. La commande prédictive est retenue du fait de son utilisation dans de nombreux domaines, de sa facilité de mise en œuvre et de sa capacité à traiter des contraintes. Parmi les démarches issues de la littérature, l'implantation de techniques robustes fondées sur des tubes de trajectoire est développée plus spécifiquement. Le recours à un observateur ensembliste à base de zonotopes permet d'améliorer la qualité de l'estimation, ainsi que la performance de la commande, dans le cas de systèmes soumis à des perturbations et des bruits de mesure inconnus, mais bornés.Dans une dernière partie, cette combinaison de l'estimation ensembliste et de la commande prédictive robuste est testée en simulation sur un système de suspension magnétique. Les résultats de simulation traduisent un comportement tout à fait satisfaisant validant les structures théoriques élaborées.
|
349 |
Estimation et commande robustes de culture de microalgues pour la valorisation biologique de CO2.Filali, Rayen 11 June 2012 (has links) (PDF)
Cette thèse s'attache à la maximisation de la consommation du dioxyde de carbone par les microalgues. En effet, suite aux différentes problématiques environnementales actuelles liées principalement aux émissions importantes de gaz à effet de serre et notamment le CO2, il a été démontré que les microalgues jouent un rôle très prometteur pour la bio-fixation du CO2. Dans cette optique, nous nous intéressons à la mise en place d'une loi de commande robuste permettant de garantir des conditions opératoires optimales pour une culture de la microalgue Chlorella vulgaris dans un photobioréacteur instrumenté. Cette thèse repose sur trois axes principaux. Le premier porte sur la modélisation de la croissance de l'espèce algale choisie à partir d'un modèle mathématique traduisant l'influence de la lumière et de la concentration en carbone inorganique total. En vue de la commande, le deuxième axe est consacré à l'estimation de la concentration cellulaire à partir des mesures disponibles en temps réel du dioxyde de carbone dissous. Trois types d'observateurs ont été étudiés et comparés : filtre de Kalman étendu, observateur asymptotique et observateur par intervalles. Le dernier axe concerne l'implantation d'une loi de commande prédictive non-linéaire couplée à une stratégie d'estimation pour la régulation de la concentration cellulaire autour d'une valeur maximisant la consommation du CO2. Les performances et la robustesse de cette commande ont été validées en simulation et expérimentalement sur un photobioréacteur instrumenté à l'échelle de laboratoire. Cette thèse est une étude préliminaire pour la mise en œuvre de la maximisation de la fixation du dioxyde de carbone par les microalgues.
|
350 |
Sequential Design of Experiments to Estimate a Probability of Failure.Li, Ling 16 May 2012 (has links) (PDF)
This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
|
Page generated in 0.0826 seconds