• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 32
  • 4
  • Tagged with
  • 98
  • 81
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation et commande robuste appliquée à un robot sous-marin / Modeling and robust control approach for autonomous underwater vehicles

Yang, Rui 26 February 2016 (has links)
L’utilisation des AUV pour une exploitation durable des ressources océaniques est pertinente. Un robot sous-marin peut être utilisé comme plateforme pour observer, recueillir des informations sur l’environnement marin. Afin d’améliorer la qualité des observations et d’augmenter la capacité de navigation, de nombreuses questions doivent être abordées et examinées simultanément. Nous abordons ici le problème du pilotage de ces robots autonomes.Atteindre la maniabilité nécessaire dépend de deux facteurs clés: un modèle hydrodynamique précis et un système de contrôle performant. Cependant, le coût de développement d’un modèle précis est généralement très élevé. De plus, lorsque la géométrie du robot est complexe, il devient très difficile d’identifier de manière pertinente les paramètres dynamiques et hydrodynamiques. En outre, du point de vue de la commande, les modèles obtenus sont non linéaire, en particuliers pour les amortissements.De nombreux phénomènes dynamiques ne sont pas modélisés: dynamiques internes au robot, environnementales, liées aux bruits des capteurs, aux retards intrinsèques. Dans les concours de robotique sous-marine, il est confirmé que le traditionnel régulateur Proportionnel-Intégral-Dérivé (PID) est peu efficace pour les robots légers. Dans ce cas, notre champ d’application est plus axé sur la combinaison des approches de modélisation numérique et la commande robuste.Dans ce travail, nous proposons un schéma de régulation basé sur la commande robuste et la modélisation. La régulation robuste a été mise en place et validée en mer sur un AUV de la marque CISCREA et la solution proposée utilise Computational Fluid Dynamic (CFD) pour caractériser les deux paramètres hydrodynamiques (matrice de masse ajoutée et matrice d’amortissement). Puis un modèle à quatre degrés de liberté est construit pour le CISCREA. Les résultats numériques et expérimentaux sont alors comparés.La commande robuste proposée est basée sur une compensation non linéaire et de la commande H∞. La validation de la robustesse a été testée par simulation en Matlab et finalement validée par des essais en mer à Brest. La simulation et l’expérience montrent que l’approche en plus d’être robuste est plus rapide que les régulateurs précédemment proposés. / Autonomous Underwater Vehicle (AUV) is a relevant technology for the sustainable use of ocean resources. AUV can be used as an important ocean observing platform to collect information on marine environmental characteristics for research and industry fields. In order to improve the observation quality and increase the navigation ability, many issues should be addressed and considered simultaneously. Achieve necessary maneuverability depends on two key factors: an accurate hydrodynamic model and an advanced control system. However, the cost to develop an accurate hydrodynamic model, which shrinks the uncertainty intervals, is usually high. Meanwhile, when the robot geometry is complex, it becomes very difficult to identify its dynamic and hydrodynamic parameters. In addition, according to the quadratic damping factor, underwater vehicle dynamic and hydrodynamic model is nonlinear from the control point of view. Moreover, unmodeled dynamics, parameter variations and environmental disturbances create significant uncertainties among the nominal model and the reality. Sensor noise, signal delay as well as unmeasured states also affect the stability and control performance of the motion control system. In many of our underwater competitions, it has been confirmed that the traditional Proportional-Integral-Derivative (PID) regulation is less efficient for low mass AUV. In this case, our scope is more focused on the combination of numerical modeling approaches and robust control schemes. In this work, we proposed a model based robust motion control scheme. Without loss of generality, a robust heading controller was implemented and validated in the sea on cubic-shaped CISCREA AUV. The proposed solution uses cost efficient Computational Fluid Dynamic (CFD) software to predict the two hydrodynamic key parameters: The added mass matrix and the damping matrix. Four Degree of Freedom (DOF) model is built for CISCREA from CFD calculation. Numerical and experimental results are compared. Besides, the proposed control solution inherited the numerically obtained model from previous CFD calculation. Numerically predicted the actuator force compensates the nonlinear damping behavior result in a linear model with uncertainties. Based on the bounded linear nominal model, we proposed H∞ approach to handle the uncertainties, we used kalman filter to estimate unmeasured states such as angular velocity and we developed smith compensator to compensate the sensor signal delay. The proposed robust heading control application uses only one compass as feedback sensor. This is important while AUV is working at certain depth where only magnetic sensors still work. Our robust control scheme was simulated in Matlab and validated in the sea near Brest. Simulation shows obvious advantage of the proposed robust control approach. Meanwhile, the proposed robust heading control is much faster than PID controller. The robust controller is insensitive to uncertainties and has no overshot. From both simulations and real sea experiments, we found our proposed robust control approach and the one compass heading control applications are efficient for low mass and complex-shaped AUV CISCREA.
22

Descriptions continues et stochastiques de la matière active / Continuous and Stochastic Descriptions of Active Matter

Djafer-Cherif, Ilyas 24 July 2017 (has links)
Le but de cette thèse est d'étudier des moodèles simples d'agents "auto-propulsés": capables de générer du mouvement en consommant de l'énergie provenant de leur environnement, sans forçage externe. Deux modèles de ce type ont été étudiés lors de cette thèse:-Dans un premier temps un modèle de type "Vicsek" a été étudié, c'est à dire que les particules représentées par un couple (position,vitesse) ont une évolution régie par des règles simples d'alignement et d'auto-propulsion à vitesse constante. Ici, l'alignement est nématique: les particlules s'alignent selon leur grand axe, au contraire d'un alignement polaire il se fait indiféremment tête à queue ou tête à tête. Par rapport aux précédents modèles de ce type la première nouveauté est l'introduction d'une pseudo répulsion (dans l'esprit Vicsek, modélisée par un terme de type couple) donnant une extension spatiale à ces particules. La seconde nouveauté est la présence d'un "taux de retournement" qui rend compte du temps de persistence de la direction de l'auto-propulsion. Dans cette partie nous décrivons divers diagrammes de phases de ce nouveau modèle qui montrent de nouvelles phases non répertoriées précédemment: les arches mais aussi des bandes "smectiques", quelques propriétés de ces structures ont été mesurées. Des équations hydrodynamiques obtenues via la méthode "Boltzmann-Ginzburg-Landau" ayant par ailleurs été dérivées nous effectuons une comparaison: la plupart des phases ainsi que certaines de leurs propriétés sont retrouvés dans le modèle hydrodynamique.-Dans un second temps, nous étudions la bactérie Neisseria Meningitidis qui présente la particularité de générer des "pili", filaments de plusieurs micromètres de long. En dépolymérisant ces structures, à vitesse constantes (~1 µm/s), elle est capable de en générer des forces gigantesques pour le vivant (~100 pN). Cette bactérie a tendance à former des aggrégats sphériques, présentant toutes les propriétés d'un liquide, pour coloniser l'organisme de l'hôte.Des mesures de viscosité et de tension de surface de ces aggrégats ont montré le rôle crucial du nombre de pili. Fort de ces constats nous avons bati un modèle microscopique dont la particularité est l'introduction de potentiels stochastiquement attractifs, c'est à dire que les particles transitent entre un état attractif et un état diffusif. Cette partie retranscrit l'évolution du modèle au cours du temps. Nous avons pu reproduire certaines propriétés des aggrégats, nous avons notamment mis en évidence une variation de la diffusion entre le centre et le bord des aggrégats qui recoupe les données expérimentales. / This thesis purpose is to study simple "self-propelled" agents models: they are able to generate motion by consumming energy comming from their environment, without external forcing. Two models of that kind have been studied:-In the first part a Vicsek-style model has been studied, that is we particles are modeled by a couple (position,velocity) which evolution is dictated by simple rules of alignment and self-propulsion at constant speed. Here the alignment is nematic particles align along their long axis and alignment is not polar, contrarily to a polar alignment particles don't discriminate between head and tail . Compared to previous models of this type, the first novelty is the introduction of a pseudo-repulsion (in the Vicsek-spirit, modelized by a torque-like term) providing spatial extension to these particles. The second addition is a flipping rate which renders the persistence time of the direction of self-propulsion. In this part we describe several phase diagrams of this new model which show new phases not previously classified: arches but also "smectic" bands, some propreties of these structures have been measured. Hydrodynamic equations from the "Boltzmann-Ginzburg-Landau" method have been also developped, comparisons are performed: the hydrodynamic model recovers most phases and some of their propreties.-In the second part we study Neisseria Meningitidis, a bacteria which particularity is to generate pili: filamentous structures several micrometers long. By depolymerizing these structures at constant speed (~1µm/s), it is able to generate gigantic forces for the living word (~ 100pN). This bacteria has a tendancy to form spherical aggregates, showing all propreties of a liquid, in order to colonize the host organism. Viscosity and surface tension measure of these aggregates have shown the crucial role of the pili number. Using these data we've built a microscopic model which particularity is the presence of a stochastically attractive potential, that is to say that particles are transiting between an attractive state and a diffusive one. This part relates the model evolution in time. We've ben able to reproduce some aggregate propreties, in particular we've highlighted a variation of the diffusion between aggregate center and edges which fits experimental data.
23

Development of a Flight Dynamics Modelof a Flying Wing Configuration

Tonti, Jacopo January 2014 (has links)
The subject of UCAV design is an important topic nowadays and many countries have their own programmes. An international group, under the initiative of the NATO RTO AVT-201 Task group, titled “Extended Assessment of Reliable Stability & Control Prediction Methods for NATO Air Vehicles”, is currently performing intensive analysis on a generic UCAV configuration, named SACCON. In this thesis the stability and control characteristics of the SACCON are investigated, with the purpose of carrying out a comprehensive assessment of the flying qualities of the design. The study included the generation of the complete aerodynamic database of the aircraft, on the basis of the experimental data measured during TN2514 and TN2540 campaigns at DNW-NWB low speed wind tunnel. Moreover, system identification techniques were adopted for the extraction of dynamic derivatives from the time histories of forced oscillation runs. The trim of the aircraft was evaluated across the points of a reasonable test envelope, so as to define a set of plausible operative conditions, representing the reference conditions for subsequent linearization of the dynamic model. The study provided a thorough description of the stability and control characteristics and flying qualities of the unaugmented SACCON, laying the groundwork for future improvement and validation of the configuration in the next design stages.
24

Impact du conditionnement de poudres de Ti6Al4V sur le procédé de fusion sélective laser / Impact of Ti6Al4V powder packing on the selective laser melting process

Regniere, Matthieu 27 November 2017 (has links)
La fusion Sélective Laser (SLM), en tant que procédé de fabrication additive, permet la conception de formes complexes par une méthode de construction couche par couche, à partir d’un lit de poudre. L’interaction entre la poudre et l’onde électromagnétique est encore trop peu maîtrisée pour stabiliser efficacement la zone de fusion, et optimiser l’énergie utilisée lors du procédé. Cette étude a pour objectif : (a) la compréhension et la maîtrise des mécanismes de mise en couche par rouleau, propre aux machines SLM Phenix; (b) l’analyse et la quantification des évolutions morphologiques et microstructurales de cordons de fusion en fonction des paramètres du procédé SLM et des paramètres du lit de poudre définis précédemment ; (c) l’élaboration d’un modèle thermique et microstructurale représentatif de l’édification de cordons unitaires par le procédé SLM. Lors de cette étude, le procédé de mise en couche par rouleau a été étudié, et modélisé, afin de contrôler les épaisseurs et taux de compacités du lit de poudre. Les caractéristiques des cordons unitaires de Ti6Al4V produits par SLM ont pu alors être analysées en fonction des paramètres du lit de poudre et des paramètres énergétiques. Cette démarche a pour but de quantifier l’impact du conditionnement du lit de poudre sur le mécanisme de fusion SLM. Par la suite, une analyse fine et une reconstitution microstructurale a pu en être dégagée. Enfin, un modèle thermique radiatif couplé à une prédiction microstructurale des cordons unitaires a pu être élaboré, permettant ainsi une compréhension approfondie du mécanisme de fusion. / Selective Laser Melting (SLM), through additive manufacturing process, allows the conception of specific shapes through a layer-by-layer building method from a powder bed. The emphasis between processing parameters as, laser power, scan speed, scan strategy… has already been well investigated for a wide panel of material. Nevertheless, the powder interaction with electromagnetic waves remains a topical issue to handle the stabilization of the melting pool, and optimize the amount of energy used within the process.The purpose of this survey is : (a) the understanding and handling of powder bed layering mechanism through SLM Phenix rolling blade ; (b) the analysis and quantification of morphological and microstructural evolutions single tracks according to SLM process and powder bed parameters ; (c) development of a thermal and microstructural model standing for post SLM single tracks edification.First of all, the process of powder spreading by rolling blade has been investigated in order to tame and modelize the porosity and effective thickness of the powder bed. Thereafter, characteristics of Ti6Al4V single tracks produced by SLM were analyzed according to process and bed powder parameters. This approach tends to quantify the impact of the powder bed packing on the SLM melting mechanism. Accordingly, fine microstructural analysis and reconstruction have been extracted. Finally, a radiative thermal model linked to a microstructural prediction of single tracks has been settled, leading to a deeper understanding of the melting mechanism.
25

Les interactions et intégrations multi-sensorielles sous l’angle d’un modèle de mémoire à traces multiples / Multisensory interplay and integration rewied by a multitrace madelization of memory

Lesourd, Mathieu 22 September 2011 (has links)
Notre travail s’inscrit dans une conception fonctionnaliste de la mémoire qui se donne pour objectif de décrire le fonctionnement de la mémoire plus que sa structure. Notre assise théorique est basée sur le modèle Act-in qui postule que la mémoire est représentée par un ensemble de traces multidimensionnelles. Ces traces comporteraient l’ensemble des dimensions d’une expérience (e.g., motrices, sensorielles, émotionnelles). Pour rendre compte de l’émergence des connaissances, ce modèle repose sur deux mécanismes : l’activation et l’intégration. Notre travail avait pour objectif de spécifier les relations fonctionnelles entre activation et intégration à travers les mécanismes perceptifs et les mécanismes mnésiques. Nous avons également proposé un mécanisme d’interaction, permettant de rendre compte de la formation des traces sensorielles en mémoire. Comme le modèle Act-in conçoit les traces en mémoire comme étant multidimensionnelles, nous avons étudié les différentes relations entre mécanismes d’intégration, interaction et activation via le prisme de la multimodalité. Ce travail s’est organisé autour de deux grands axes expérimentaux, un premier tourné vers l’intégration en perception et l’autre vers l’intégration en mémoire.Dans un premier axe, nous avons introduit la notion d’interaction multimodale pour rendre compte des relations entre modalités sensorielles dans des tâches perceptives. Nous avons montré que lorsque des interactions sensorielles étaient systématiquement répétées, les performances de sujets étaient meilleures que celles observées dans un contexte multimodal dans lequel les modalités sensorielles n’entretenaient pas de lien. Nous avons mesuré à l’aide d’un outil mathématique, le Race Model, le gain multi-sensoriel dans diverses conditions. Nous avons montré que le Race Model mesurait un gain multi-sensoriel essentiellement lorsque la tâche n’impliquait pas de processus mnésiques (i.e., détection). Selon nous, cela montre que cet outil mathématique est plus sensible à l’interaction multimodale, lorsque les composants sensoriels ne sont pas intégrés en mémoire.Dans un second axe, nous avons développé un paradigme expérimental permettant de mesurer les effets d’un encodage sensoriel sur une récupération ultérieure (i.e., catégorisation, reconnaissance et rappel libre). Nous avons montré qu’une association multimodale congruente lors d’un encodage (e.g., image de chien et aboiement du chien) améliorait significativement les performances dans diverses tâches de mémoire. Selon nous, l’activation des dimensions auditives associées au sein de la trace explique cette facilitation lors de la récupération. Nous avons également montré qu’une association multimodale non congruente lors de l’encodage (e.g., image d’un chien et bruit blanc) perturbait la récupération en mémoire à long terme. Ce résultat apporte un argument supplémentaire en faveur des modèles de mémoire qui postulent que les connaissances sont avant tout sensorielles.Pour résumer, ce travail a permis dans un premier temps de proposer un mécanisme d’interaction multimodale nécessaire à l’intégration des composants sensoriels en mémoire. Dans un second temps, nous avons montré que des modalités sensorielles associées lors de l’encodage pouvait être réactivées ultérieurement et faciliter le traitement uniquement si les modalités sensorielles étaient sémantiquement congruentes. Ce résultat renforce la conception d’une mémoire organisée autour de connaissances avant tout sensorielles.Enfin, les résultats que nous obtenons suggèrent que la mémoire et la perception partagent des traitements communs car un trait perceptivement absent peut influencer un trait perceptivement présent et réciproquement. Cela nous permet d’envisager une relation horizontale entre mémoire et perception et remet en question la conception traditionnelle top-down des liens entre mémoire et perception. / Our conception of memory has the aim to describe the memory process more than the memory architecture. Our theoretical approach is based on the Act-in model, postulating that memory is represented by a multidimensional set of traces. These traces should include all dimensions of an experience (e.g., sensory-motor and emotional components). This model relies on two mechanisms (i.e., activation and integration) in order to reveal the emergence of knowledge. The aim of this work was to specify the functional relationships between activation and integration through memory and perception mechanisms. We also proposed a mechanism of interaction, to understand the formation of sensory memory traces. The model Act-in is composed by multidimensional memory traces. Thus, we studied the relationship between integration, interaction and activation through multimodality. This work was organized around two main axis. On one hand perceptual integration and on the other hand the memory integration.In the first axis, we have introduced the concept of multimodal interaction to show the relationship between sensory modalities in perceptual tasks. Our results revealed that when sensory interactions were systematically repeated, the performance of subjects were better than those observed in a context in which multimodal sensory modalities did not maintain a link. We measured using a mathematical tool, the Race Model, multi-sensory gain under various conditions. We have shown that the Race Model measured multi-sensory gain, mainly when the task did not involve memory processes (i.e., detection). This mathematical tool seems to be more sensitive to multimodal interaction, when the sensory components are not integrated into memory.In the second axis, we used an experimental paradigm to measure the effects of sensory encoding on subsequent retrieval tasks (i.e., categorization, recognition and free recall). Our results showed that a congruent multimodal association at encoding (e.g., image of dog and the dog barking) improved performance in various memory tasks. It seems that the activation of the sensory dimensions could explain the facilitation during retrieval. Moreover, an incongruent multimodal association at encoding (e.g., image of a dog and white noise) disturbed performance from retrieval in long-term memory. This result provides a further argument supporting sensory-based memory model.In summary, we propose a multimodal interaction mechanism for the integration of sensory components in memory. Secondly, we have shown that sensory modalities associated during encoding could be reactivated later and facilitate the processing only when the sensory modalities were semantically congruent. This result improves the assumption that memory is sensory-based.Finally, theses results suggest that memory and perception share common features. The reactivation of a sensory dimension can influence the perceptual dimension processing and vice versa. This allows us to consider a horizontal relationship between memory and perception. In such case, the traditional relationship between memory and perception, as assumed to be top-down, could be questioned.
26

Le composite cuivre / nanofibres de carbone / The copper-carbon nanofibers composite

Vincent, Cécile 19 November 2008 (has links)
Le matériau composite Cu/NFC (Nano Fibre de Carbone) peut être utilisé en tant que drain thermique par les industriels de l'électronique de puissance. En remplacement du cuivre, il doit combiner une conductivité thermique élevée et un coefficient de dilatation thermique adapté à celui de la céramique du circuit imprimé (alumine ou nitrure d’aluminium). Après avoir étudié les propriétés de la matrice cuivre et des NFC, plusieurs méthodes de synthèse du composite Cu/NFC ont été développées. Le composite a tout d’abord été élaboré par métallurgie des poudres. Puis, dans le but d’améliorer l’homogénéité, il a été envisagé de revêtir individuellement chaque NFC par du cuivre déposé par voie chimique electroless ainsi que par une méthode originale de décomposition d’un sel métallique. Des mesures de densité et de propriétés thermiques (conductivité et dilatation) ainsi que les caractérisations microstructurales de ces matériaux montrent la complexité de l’élaboration d’un tel composite. En effet, la dispersion des nanofibres, la nature des interfaces fibres/matrice et surtout les phénomènes thermiques à l’échelle nanométrique sont autant de paramètres à contrôler afin d’obtenir les propriétés recherchées. La simulation numérique et analytique, qui a été mise en oeuvre en parallèle a été corrélée aux résultats expérimentaux, afin de prédire les propriétés finales de nos matériaux. / Cu/CNF (Carbon Nano Fiber) composite materials can be used as heat sink in power electronic devices. They can substitute Copper by combining a high thermal conductivity and a coefficient of thermal expansion close to the printed circuit one (alumina or aluminum nitride). After studying the properties of Copper matrix and CNF, three methods were set up for the elaboration of the Cu/CNF composite materials. It was first synthesized by a simple powder metallurgy process. Second, in order to obtain a better homogeneity, CNF were individually coated with Cu by an electroless deposition method. Third, an original technique involving the decomposition of a metallic salt has been used. Measurements of the density, the thermal properties (conductivity and dilatation), and the characterization of the microstructure of the composite materials have been performed. It reveals the complexity of the realization of such a composite. Indeed, the dispersion of CNF and the chemical nature of the Cu/CNF interfaces have to be controlled in order to reach the desired thermal properties. Analytical and numerical simulations have been conducted and correlated with the experimental results to predict final properties of our materials.
27

Fabrication additive par dépôt laser direct de TA6V : étude expérimentale dans des régimes de forte productivité, modèles de comportement et recyclage de la poudre / Additive manufacturing of TA6V by direct laser deposition : experimental study operated at high productivity ranges, behavior models and powder recycling

Blanc, Toinou 03 April 2017 (has links)
La fabrication additive, ou impression 3D, regroupe plusieurs procédés permettant d’obtenir des pièces par empilement de couches de matière à partir de modèles CAO, sans outillage spécifique. En l’espace d’une dizaine d’années, les procédés additifs ont vu leur notoriété croître bien plus rapidement que la rentabilité de leurs applications industrielles.En effet, ces technologies doivent encore gagner en maturité, en particulier pour les applications métalliques. C’est l’enjeu du projet FUI-9 FALAFEL dans lequel s’inscrit cette thèse, menée en partenariat avec plusieurs acteurs industriels et académiques. Elle a pour but d’accompagner le développement du procédé de dépôt laser direct (DLD), aussi appelé dépôt de métal assisté par laser (LMD).Celui-ci consiste à projeter et à fondre de la poudre métallique sur un substrat suivant un motif défini, couche après couche. Il permet d’obtenir des pièces de grandes dimensions peu complexes avec un état de surface moyen et une productivité correcte, mais encore insuffisante pour son industrialisation.La spécificité de ce travail est d’étudier le procédé DLD avec l’alliage de titane TA6V, dans des régimes opératoires permettant d’atteindre des débits volumiques de construction élevés (> 100 cm3/h).Les recherches sont orientées suivant deux axes. En premier lieu, on s’attache à améliorer la compréhension et la maîtrise du procédé, en établissant les relations entre paramètres opératoires, critères géométriques, stabilité du bain de fusion, rendement massique et microstructure générée.Dans un deuxième temps, on s’intéresse à la possibilité de réutiliser les poudres projetées non fondues. On étudie jusqu’à 3 niveaux de recyclage de la poudre, sans dilution avec de la poudre neuve, puis on vérifie que les propriétés mécaniques sont en accord avec les exigences aéronautiques. / Additive manufacturing, also known as 3D printing, aggregates several processes that allows to build parts by stacking layers of a given material, directly from CAD models, without specific tools. Over the past decade, additive processes have gained in notoriety much more rapidly than their industrial applications gained in profitability.Indeed, these technologies must still mature, especially for metallic applications. This is the challenge of the project FUI-9 FALAFEL, in which this thesis takes place, carried out in partnership with several industrial and academic actors. It aims to accompany the development of the direct laser deposition process (DLD), also known as laser metal deposition (LMD).This consists in projecting and melting metal powder on a substrate in a defined pattern, layer by layer. It allows to obtain large size and low complexity parts with high roughness and a proper productivity, despite being still insufficient for industrialization.The specificity of the present work is to study the DLD process in operating modes that allow to reach high build rates (> 100 cc/h), in application to the titanium alloy TA6V.This work is driven by two research focus. In the first place, we try to improve the understanding and control of the process by establishing the relationships between operating parameters, geometric criteria, melt pool stability, process efficiency and generated microstructure.In a second stage, we focus on the possibility to reuse powders that remain unmelted after deposition. Up to 3 levels of powder recycling are studied, without dilution with new powder. We then carried out tests to check that the mechanical properties were in accordance with the aeronautical requirements.
28

Utilisation de méthodes inverses pour la caractérisation de matériaux à changement de phase (MCP) / Use of inverse methods for the characterization of phase change materials (PCM)

Maréchal, William 24 April 2014 (has links)
Avec le développement des énergies intermittentes et la raréfaction des énergies fossiles, le sujet du stockage de l’énergie prend de plus en plus d’ampleur. Une des voies étudiée est le stockage thermique par utilisation de matériaux à changement de phase (MCP). Cette voie est en outre développée pour améliorer l’inertie thermique dans le secteur du bâtiment. Pour utiliser au mieux ces matériaux il est nécessaire de pouvoir prévoir leur comportement énergétique. Cela nécessite une connaissance précise des propriétés thermophysiques, et en premier lieu de la fonction enthalpie massique . Actuellement, il est souvent proposé d'approximer cette enthalpie par l'intégration directe des thermogrammes de la calorimétrie utilisant notamment la notion de capacité calorifique "équivalente". Cette approche est cependant fausse car le thermogramme n’est qu'une représentation en fonction du temps de phénomènes complexes faisant intervenir non seulement les propriétés énergétique du matériaux mais également les transferts thermiques au sein de la cellule du calorimètre. Il en résulte, par exemple, que la forme des thermogrammes, et donc l’enthalpie apparente, dépend de la vitesse de réchauffement et de la masse de l'échantillon ce qui n'est pas le cas de l'enthalpie des MCP qui ne dépend, à pression fixe, que de la température ou de la concentration (pour les solutions). On propose de comparer la sortie d’un modèle numérique direct avec des thermogrammes expérimentaux. L’objectif principal de cette thèse est alors d’utiliser ce modèle dans le cadre d’une méthode inverse permettant l’identification des paramètres de l’équation d’état permettant alors de calculer l’enthapie massique . Dans un premier temps, il est donc présenté le détail d'un modèle 2D dit enthalpique qui néglige la convection, validé par l'expérience, permettant de reconstituer les thermogrammes de corps purs ou de solutions binaires dont les enthalpies sont connues. Il en est déduit une étude de l'influence des différents paramètres ( , , , ...) sur la forme des thermogrammes pour en déduire leurs sensibilités. Une réduction de ce modèle est ensuite effectuée pour réduire le temps de calcul du modèle direct en vue de l’utilisation dans une méthode inverse. Cette dernière est décrite ainsi que les algorithmes d’optimisation correspondants (de Levenberg-Marquardt, génétique ou du simplexe qui s'est avéré le plus rapide) dans un second temps. Nous appliquerons ensuite cet algorithme pour identifier, à partir d'expériences, la fonction enthalpie de corps purs ou de solutions binaires. Les résultats obtenus montrent qu’il est possible d’identifier une fonction independante de la vitesse de réchauffement et de la masse, ce qui valide la méthode. Une analyse des différentes sources d’erreurs dans le processus d’identification et leurs influences sur le résultat permet d’évaluer la qualité de la fonction enthalpie que l’on identifie. Enfin, cette même approche a été utilisée pour analyser une expérience réalisée sur un échantillon d’un matériau composite utilisé dans le bâtiment (ciment avec inclusion de MCP micro-encapsulé). Dans ce cas encore, nos méthodes permettent une caractérisation énergétique pertinente. / With the development of intermittent sources of energy and the depletion of fossil fuels, the subject of energy storage is becoming an important topic. One of the studied options is tthe latent hermal storage using of phase change materials (PCM). One application for this type of energy storage is to improve the thermal insulation in buildings. To make the best use of these materials it is necessary to be able to predict their energy behavior. This requires a precise knowledge of their thermophysical properties, first of all of the specific enthalpy function of the material . Currently, it is often suggested to approximate the enthalpy by the direct integration of the thermograms obtained through calorimetry experiments (notion of "equivalent" calorific capacity). This approach is false because thermograms are only a time related representation of complex phenomena where thermal transfers arise in the cell of the calorimeter acting with the thermophysical properties. As a result, for example, the shape of thermograms depends on the heating rate and on the mass of the sample, which is not the case for the enthalpy of the PCM, which depends, at constant pressure, only on the temperature or on the concentration (for the solutions). We propose to compare the results given by a of a numerical direct model with experimental thermograms. The main objective in this thesis is then to use this direct model in an inverse method in order to identify the parameters of the equation of state, which enables us to calculate the specific enthalpy . First of all, the detail of an enthalpy model is presented, and then validated by comparison with experiments, allowing us to reconstruct the thermograms of pure substances or of salt solutions, of which the enthalpies are known. A study of the influence of the various parameters ( , , , .,..) on the shape of thermograms is also undertaken in order to deduce their sensibilities. A reduced model is then developed in order to reduce the calculating time of the direct model. This optimized model allows the use of inverse methods with acceptable durations. Several inverses algorithms are then presented: Levenberg-Marquardt, evolutionary and Simplex which has proved to be the fastest). We shall then apply this algorithm to identify, from calorimetric experiments, the enthalpy function of pure substances or of salt solutions. The results that we obtain show that it is possible to identify a function independent of the heating rate and of the mass, which validates the method. An analysis of the various sources of errors in the identification process and of their influences on the result allows us to estimate the quality of the enthalpy function that we identify.
29

Modélisation microscopique et macroscopique du trafic : Impact des véhicules automatisés sur la sécurité du conducteur / Microscopic and macroscopic traffic modeling : Impact of automated vehicles on driver safety

Derbel, Oussama 19 December 2014 (has links)
Les travaux de la thèse se résument en trois parties : La première partie consiste à étudier l’impact de l’automatisation basse vitesse du trafic en termes de sécurité, de consommation en carburant et des émissions des polluants. Dans un premier temps, une étape de modélisation d’un trafic mixte a été élaborée. Ce dernier se définit par la coexistence de deux types de conduite : le premier type est la conduite manuelle ou régis par l’action du conducteur et le deuxième type est la conduite automatisée. Dans un deuxième temps, les scénarios et les indicateurs de sécurité associés ont été développés. Dans ce cadre, un simulateur de trafic a été développé avec le langage C avec une interface graphique sous OpenGL. Les résultats montrent que l’augmentation de la présence des véhicules automatisés améliore la sécurité du trafic dans le cas de collisions aussi que dans le cas de scénarios sans collision. Par ailleurs, l’impact des véhicules automatisés sur la consommation en carburant et les émissions de polluants n’apparait que lorsqu’il s’agit de long parcours. La deuxième partie de la thèse consiste à améliorer le modèle Intelligent Driver Model (IDM) pour pallier ses inconvénients. Ce modèle est un Adaptive Cruise Control (ACC) destiné à représenter la conduite automatisée dans le trafic. Dans ce contexte, une nouvelle version a été développée. L’idée principale est la prise en compte non seulement de l’état du véhicule de tête mais aussi de celle du véhicule précédent. Ce nouveau modèle montre de meilleures performances au niveau de la stabilisation de la file. La troisième partie se concentre sur la modélisation macroscopique du trafic afin d’étudier son diagramme fondamental. Le nouveau modèle macroscopique développé est basé sur les données microscopiques obtenues à partir de la simulation du modèle Intelligent Driver Model. À partir de ces données, les variables macroscopiques du trafic à savoir la densité et la vitesse de la file ont été identifiées par régression non linéaire. Le nouveau modèle macroscopique vitesse- densité possède trois avantages. Le premier avantage est la connaissance de la vitesse de stabilité et la densité d’une file de véhicule dès les premières secondes de simulation en identifiant les modèles de densité et de vitesse. Le deuxième avantage se manifeste dans la possibilité de trouver des modèles existants dans la littérature en fixant quelques paramètres. Le troisième avantage est la possibilité de sa calibration avec un minimum d’erreur pour différentes situations du trafic (ex : congestionné, libre). / My thesis can be summarized in three parts: The first part consists in studying the impact of the low speed automation on driver safety, traffic capacity, fuel consumption and vehicle emissions. As a first step, a pattern of mixed road traffic is established. This one is defined by the coexistence of two driving styles: the first one is the manual and the second one is the automated. Secondly, the scenarios and the associated indicators have been developed. In this context a traffic simulator was developed with the C programming language using the OpenGl library for the graphical interface. Results show that the increase of automated vehicles presence traffic safety increases in case of accidents scenarios as well as in the case of without accidents. Moreover, the impact of automated vehicles on fuel consumption and pollutant emissions only appears when it comes to long path. The second part of my thesis consists in improving the Intelligent Driver Model (IDM) model, Adaptive Cruise Control (ACC) to represent the automated driving in traffic, to overcome its drawbacks. In this context, a new version is developed. The main idea is to take into account not only the state of the preceding vehicle but also the tail vehicle. This new model shows better performance in queue stabilization in terms of accelerations and velocities. The third part is devoted to the macroscopic traffic modeling in which we study the fundamental diagram. The new developed macroscopic model is based on microscopic data given by the Intelligent Driver Model simulation. Then, the traffic density and velocity were identified by non-linear regression. The new macroscopic velocity-density model has three advantages: Knowledge of the stable velocity and density within the first seconds of simulation by identifying. Ability to find existing models in the literature by setting some of its parameters. Calibration with a minimum of error for different traffic situations (eg congestion, free).
30

Impacts d'une réorganisations des réseaux commerciaux sur l'occupation rurale : les cités antiques de la Basse vallée de la Seine / Impact analysis of a reaorganization of commercial networks on rural occupation : the Roman cities in the lower valley of the Seine river (Normandy, France)

Spiesser, Jérôme 19 November 2018 (has links)
Vers l'an 12 avant J.-C., l'empereur Auguste décide de réorganiser les Gaules. Il crée à cette occasion de nouvelles villes, et déplace aussi des agglomérations gauloises. Cette thèse a pour objectif d'étudier à court, moyen et long termes, l'impact qu'a pu avoir cette réorganisation territoriale sur l'occupation rurale. Son originalité est de modéliser les dynamiques d'occupations non plus à partir de données issues de prospection, mais grâce à celles découvertes de manière « fortuite » lors des opérations d'archéologies préventives. Le nombre d'habitats mis au jour a ainsi été rapporté à l'ensemble des superficies diagnostiquées pour baser la réflexion sur l'évolution des densités d'habitats. Cette analyse a été menée sur les 1182 diagnostics archéologiques réalisés depuis 1990 dans les quatre cités antiques de la basse vallée de la Seine, et qui ont permis de découvrir 232 habitats gaulois ou gallo-romains. Les principaux résultats sont que la création de nouvelles ville au début de I' Antiquité, a dans un premier temps entrainé un exode rural à proximité, en parallèle d'un enrichissement de la société rurale et d'un accroissement des inégalités. Cela a permis l'apparition de grandes exploitations agricoles dans la seconde moitié du II siècle après J.-C. : la villa gallo-romaine. Leur apparition a néanmoins provoquée le déclin progressif de la petite paysannerie dès la fin du IIe siècle, et est probablement en lien avec le développement des hameaux autour des villes augustéennes, dans la seconde moitié du IIIe siècle. Les espaces n'ayant pas fait l'objet d'une urbanisation planifiée au début de I' Antiquité, sont devenues des zones marginales au cours de cette période. / Around 12 BC. Emperor Augustus decided to reorganise the Gauls. On this occasion, he created new cities and moved Protohistoric towns. This thesis aims to study in the short, medium and long terms, the impact this territorial reorganisation might have had on the rural occupation. Its originality is to model the dynamics of occupation not from data acquired during prospections but fortuitously during preventive archaeological operations. The number of settlements uncovered has been compared to the total surveyed surfaces, in order to base the reflection on the evolution of the density of settlements. This analysis has been conducted on the 1182 archaeological surveys conducted since 1990 in the four Roman cities of the lower valley of the Seine river and has allowed the discovery of 232 Gallic or Roman settlements. The main results are that the creation of new towns at the beginning of the Roman period, has firstly led to a rural exodus in short distances, in parallel with an enrichment of the rural society and an increase in inequalities. This has allowed the appearance of big agricultural exploitations in the second half of the 2nd century AC: the roman villa. Their appearance has nevertheless induced a progressive decline of the small peasantry from the end of the 2nd century forth, and is possibly linked to the development of hamlets around Augustan cities in the second half of the 3rd century. Areas that have not been subject to a planned urbanisation at the beginning of the Roman period have been marginalised.

Page generated in 0.5064 seconds