• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 32
  • 4
  • Tagged with
  • 98
  • 81
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Approche système pour l’étude de la compatibilité électromagnétique des réseaux embarqués / EMC system model for embedded networks

Frantz, Geneviève 26 May 2015 (has links)
Les véhicules de transport tendent à utiliser de plus en plus des énergies dites propres. De ce fait, les structures des réseaux électriques embarqués se complexifient que ce soit en termes d'architecture, de nombre de convertisseurs d'électronique de puissance connectés ou bien des technologies utilisées dans ces derniers. En complément de l'approche normative, où le convertisseur est étudié seul dans un environnement normalisé, cette thèse de modélisation CEM de convertisseurs statiques se place dans le cadre particulier des réseaux pour lesquels : • la connaissance de la structure interne du convertisseur étudiée n'est pas nécessaire à la réalisation de son modèle. La méthode développée se base uniquement sur des mesures extra-convertisseurs. Cette approche possède l'avantage de garantir aux fabricants une certaine confidentialité sur l'architecture interne des convertisseurs tout en permettant à l'équipementier d'étudier les effets de ces derniers sur son réseau de bord ; • le réseau sur lequel les convertisseurs sont modélisés peut posséder une architecture complexe par rapport à l'approche « convertisseur seul sur RSIL ». Pour plus de réalisme, le fonctionnement normal d'un convertisseur peut être soumis au fonctionnement d'autres convertisseurs du réseau. Ainsi, les impédances qui seront mises face au convertisseur étudié devront représenter la réalité de ce réseau qui ne sera alors pas nécessairement bien connu. Même si ce n'est pas ce qui a été réalisé au cours de cette thèse, ce point est important puisqu'il remet en question l'utilisation systématique des RSIL puisqu'ils faussent le comportement réel sur réseau ; • la montée en fréquence des technologies utilisées dans les convertisseurs conduit à la nécessité d'un modèle sur une plage de fréquences allant au-delà des 30MHz conventionnels imposés par les normes. Pour ce travail, une plage allant de la fréquence de découpage jusqu'à 100MHz était visée. En définitive, l'objectif principal de cette thèse a été de réaliser un protocole d'identification clairement défini dans le but de renseigner un modèle de type « boîte noire » compatible avec les convertisseurs statiques. Ce modèle a été choisi pour : • son faible nombre d'éléments, le rendant compatible avec l'analyse d'un réseau où de nombreux convertisseurs seront présents ; • sa généricité qui permet d'établir une méthode d'analyse systématique. • sa compatibilité avec l'étude classique en mode commun – mode différentiel qui, dans le cadre de la séparation de modes, le rend même plus simple à utiliser. L'envie de donner du sens physique aux éléments de ce modèle a été une clé dans son identification. De ce fait, les nombreux modèles CEM de convertisseurs statiques qui existent et qui possèdent une utilité (par exemple, dans le cadre du dimensionnement des filtres CEM d'entrée) n'ont pas été laissés de côté. Il a donc été choisi de réaliser dès que possible un lien formel entre les différents modèles. / Energy saving in stationary or embedded systems is a general trend in the modern society. Therefore, the “More Electrical” concept is widely developed, using the Power by Wire idea. The need of increased efficiency and the various ways the electricity is produced, used or stored has led to the generalization of power electronics use. If this solution is effective regarding weight and losses, the high switching frequencies and sharp commutations (several mega-volts or mega-amps per microseconds) generate Electromagnetic Interferences (EMI) which have to be managed. This phenomenon is especially dramatic with the new wide band gap devices, with always increasing commutation speed. Electromagnetic models (EMC) of power electronics converters are thus needed to manage EMC aspects of More Electrical Systems. Depending on the needs, many solutions have been proposed in the literature, to account for the high frequency behavior of power electronics converters (from the switching frequency to several tens of Megahertz). In addition to the classical normative approach, the “EMC system model for power electronics converter” presented here aims to be suitable for embedded networks. In opposition to EMC filter design method, no inner knowledge (as an accurate description of each element and propagation path) from the studied converter is needed. Only external measurements are needed to get the model. Thus, non-disclosure agreement is guaranteed and the embedded network can be studied. Regarding the network structure, the “LISN + Converter” approach can be far away from its complexity. A more global approach might be achievable with “black-box” approach. For the normative approach, only EMI under 30MHz are considered. By increasing the switching frequency, the “EMC system model” has to be valid up to 100MHz. The aim of the Ph.D. is to achieve an entire identification protocol of a “Black-box” model. This modification has been chosen for: • Its tiny number of elements. This means that it can be use in network analysis with multiple converters. • Its generalist form lead to a systematic method of analysis. • Its links with the classical common mode and differential mode approach which give some interesting connection with classical converters modelization. Those links lead to a physical consideration about the meaning of this non-comprehensive model.
32

Etude du comportement mécanique multiaxial de matériaux cellulaires / Investigation of cellular materials multiaxial mechanical behavior

Donnard, Adrien 18 June 2018 (has links)
Les travaux de cette thèse s’intéressent au comportement mécanique d’une mousse destinée à l’absorption d’énergie dans une assise de siège pilote. Les méthodes de caractérisation habituelles proposent de solliciter le matériau suivant une seule direction. Cependant, cette caractérisation ne permet pas d’être représentatif des sollicitations lors de l’utilisation de l’assise, qui sont multiaxiales. Cette étude s’intéresse donc à la caractérisation du comportement multiaxial d’une mousse. L’approche originale utilisée est une séparation du comportement en deux contributions: changement de volume (pression-volume) et de forme (distorsion-cisaillement). Un premier moyen d’essais de compression hydrostatique a été développé afin de caractériser le changement de volume. Les résultats mettent en évidence une forte influence de la contribution en changement de volume, lors d’une sollicitation de compression uniaxiale. Un deuxième moyen d’essais a été développé permettant d’appliquer des sollicitations radiales suivant un angle cinématique ϑε, imposant une proportion de volume et de distorsion. Les résultats montrent une forte influence de l’angle cinématique sur les comportements des contributions de changement de volume et de forme. D’autres sollicitations impliquant de la compression et du cisaillement d’une manière séquentielle ont montré une influence du niveau de volume sur le comportement en changement de forme. Enfin, un modèle de simulation 2D par assemblage d’éléments finis 1D, montre une bonne représentation des différents comportements des contributions de changement de volume et de forme obtenus expérimentalement. / This thesis is focused on the mechanical behavior of foam designed to absorb energy in an airplane pilot seat cushion. Usually, these materials are characterized using uniaxial compressive test. Nevertheless, this uniaxial characterization doesn’t represent the real in-use loading of cushion. To complete these data, this work focuses on multiaxial behavior characterization of foam. The analysis of behavior is realized by using a separation into two contributions linked to the volume (pressure-volume) and the shape (distortion-shear) change. A hydrostatic testing system was developed with the aim to characterize the volume change behavior. Results highlight a strong influence of the volume change behavior during an uniaxial compression solicitation. A second testing system was developed allowing to apply radial solicitations following a kinematic angle, which imposes a non-proportional variation of volume and distortion. A kinematic angle influence is observed on the volume and shape change behavior. Other solicitations composed of compression and shear applied in a sequential way, permit to observe a volume influence on the shape change behavior. Finally, a 2D simulation model composed of 1D element composition shows a good representation of the volume and shape changes behavior obtained from experimentation.
33

Shape dynamics and clustering processes of particles transported by turbulent flows : a stochastic approach / Dynamique de formes et formations d'amas de particules transportées par un écoulement turbulent : une approche stochastique

Guichardaz, Robin 13 October 2016 (has links)
Cette thèse porte sur la dynamique de particules dans des écoulements turbulents, en particulier sur l'apparition de structures. Deux situations physiques sont étudiées. D'une part, dans le cas du mouvement de traceurs, c'est-à-dire de particules fluides de même composition que le flot, transportés par un champ de vitesse turbulent bidimensionnel, un triplet de particules (un triangle) tend à se déformer en une structure très allongée sous l'action de l'écoulement. D'autre part, pour des particules inertielles de densité grande devant celle du fluide et soumises à une force de traînée, des distributions spatiales fortement inhomogènes peuvent apparaître, conduisant à la formation d' attracteurs étranges. L'approche suivie dans cette thèse consiste à modéliser l'action de l'écoulement turbulent en utilisant des outils de dynamique stochastique (équations de Langevin), qui permettent d'obtenir une description effective des comportements observés. Dans le cas des particules inertielles, les attracteurs sont caractérisés par une dimension fractale. L’ajout d’un bruit dans les équations du mouvement a permis d'étendre cette notion à des valeurs de dimension négatives, intrinsèques à la dynamique en l'absence de bruit. Cette thèse établit qu'il est possible de formuler les deux problèmes physiques étudiés en termes de processus stochastiques très généraux, dont le prototype est celui décrivant la sédimentation de particules en présence de bruit thermique. La détermination des caractéristiques de la solution requiert une nouvelle approche. La solution proposée ici est basée sur la théorie des grandes déviations. / This thesis deals with the dynamics of particles in turbulent flows and the formation of structures. Two physical situations are studied. First, we consider the dynamics of tracers, that is ideal fluid particles, transported by a turbulent velocity field. A triplet of such particles forms a triangle, which tends to be flattened under the action of the incompressible flow. Second, inertial particles of density higher than that of the fluid and subjected to a viscous drag force usually cluster on regions of high concentration, leading to the formation of strange attractors. The approach followed in this thesis consists in modeling the action of the turbulent flow using tools of stochastic dynamics (such as Langevin equations), which allow us to obtain a effective description of these phenomena. For inertial particles, the attractors are characterized by a non-integer fractal dimension. The addition of an external noise in the equations of motion lead to a generalization of this notion to negative values, intrinsic to the dynamics in the absence of noise. This thesis shows that it is possible to formulate the two problems in terms of very general stochastic processes, whose prototype is the one describing the sedimentation of particles in the presence of a thermal noise. The determination of the characteristics of the solution requires a new approach. The solution proposed here is based on the large deviation theory.
34

Etude de la rétrodiffusion altimétrique pour la caractérisation des surfaces et de l'humidité des sols en Afrique de l'Ouest / Study of the altimetry backscattering coefficient for the characterization of surfaces and soil moisture over west africa

Fatras, Christophe 09 July 2015 (has links)
Le satellite altimétrique interférométrique SWOT, dont le lancement est prévu pour 2020, devrait pour la première fois permettre une couverture globale en quelques jours d'un radar proche-nadir en utilisant la bande de fréquence Ka. Or, l'utilisation d'une telle bande de fréquence est encore mal documentée pour l'hydrologie continentale. En particulier, le contraste du coefficient de rétrodiffusion sur les sols et sur les surfaces en eau pour des angles de visée nadir et proche nadir est une problématique majeure. C'est ce qui fait l'objet de ces travaux de thèse. Dans un premier temps, l'étude de la variation des coefficients de rétrodiffusion en provenance d'altimètres en bandes C et Ku et de diffusiomètres utilisant les mêmes bandes de fréquence sur l'Afrique de l'Ouest a montré qu'il existe un lien quantifiable entre l'humidité du sol et le coefficient de rétrodiffusion. En région semi-aride ce lien se manifeste via une hausse des coefficients de rétrodiffusions durant la saison humide par rapport à la saison sèche. L'analyse avec des données annexes d'humidité du sol et de précipitations a pu également montrer que le radar nadir détecte plus précisément les changements d'humidité du sol par rapport à la diffusiométrie radar à visée latérale. Dans le but de mieux comprendre la rétrodiffusion en bande Ka, très peu documentée, deux campagnes de mesures radar ont été réalisées, l'une sur des surfaces en eau à rugosité contrôlée, l'autre sur un terrain contrôlé en rugosité et humidité du sol. En parallèle, un programme de simulation de la rétrodiffusion altimétrique a été développé pour pouvoir analyser les effets d'un faible nombre de variables sur des sols réalistes, dans le but de simuler les variations du coefficient de rétrodiffusion. Ces mesures et ces simulations ont ensuite pu être comparées aux séries temporelles issues du satellite altimétrique AltiKa, fonctionnant en bande Ka et lancé en février 2013, sur différents sites représentatifs des régions bio-climatiques d'Afrique de l'Ouest. Il en ressort que la bande Ka présente une forte sensibilité aux changements d'humidité du sol. Il est également montré que les coefficients de rétrodiffusion en provenance d'AltiKa sur les sols et sur l'eau peuvent être similaires au nadir. / The radar altimetry interferometry satellite SWOT, which is to be launched in 2020, should provide for the first time a global coverage of a close-to-nadir radar altimeter in a few days using the Ka-band. Yet, the use of such a frequency band for continental hydrology is still poorly documented. In particular, the contrast of the backscattering coefficient over soils and over water bodies for nadir and close-to-nadir angles is a major issue. This is the reason for this work. First, the study of the backscattering coefficients from C- and Ku- band altimeters and scatterometers over West Africa has shown that there is a link between the surface soil moistureand the backscattering coefficient. In semi-arid regions, this link is seen through a rise of the backscattering coefficients during the rainy season compared to the dry season. The analysis with ancillary data such as the surface soil moisture and the precipitation estimations has also shown that nadir-looking radars detect more precisely the changes in surface soil moisture compared to side-looking radars. Still with the purpose to better understand the Ka-band surface scattering, poorly documented, two measurement campaigns were led, on the one hand over water surface with controlled roughness, on the other hand over bare soils with monitored roughness and surface soil moisture. In parallel, an altimetry backscattering simulation program has been developed to analyze the effect of a low number of variables on realistic grounds, with the aim of simulating the backscattering coefficient variations. These measurements and simulations were then compared with time series from the satellite altimeter AltiKa, which has been launched in 2013 and works at Ka-band, over different sites representaing the bioclimatic areas of West Africa. It led to a high sensitivity of the Ka-band to changes in the surface soil moisture. It has also been shown that backscattering coefficients at nadir-looking angle from AltiKa over grounds and over water bodies can be similar.
35

Optimisation énergétique d'un système de micro-trigénération à pile à combustible / Energy optimization of micro-combined cooling heating and power system based on fuel cell

Romdhane, Jaouher 14 November 2018 (has links)
L’objectif de cette thèse est l’optimisation énergétique d’un système de micro-cogénération et micro-tri-génération à pile à combustible. Dans un premier temps, une modélisation mathématique de tous les composants du système de cogénération à pile à combustible a été menée. L'influence de plusieurs paramètres tels que la pression et la densité de courant sur les performances de système micro-cogénération est examinée. La pertinence énergétique et environnementale du système proposé pour le contexte français est étudiée. Ensuite, une étude numérique d’un système de tri-génération composé d’une pile à combustible et d’une machine à absorption simple effet H2O/ Li-Br a été menée. L’unité de micro-tri génération est couplée à une maison unifamiliale et la performance énergétique du système est évaluée. Enfin, afin d’évaluer le potentiel de coupler le système de micro-tri-génération avec les énergies renouvelables, un système de production d’hydrogène avec les panneaux photovoltaïques «PV-H2» a été étudié. Une modélisation des différents composants du système «PV-H2» a été réalisée. Les résultats de simulation du couplage du système PV-H2 avec une maison individuelle de l’éco-quartier de la Glacerie sont présentés. / The objective of this thesis is the energy optimization of the micro-cogeneration and micro-tri-generation fuel cell system. First, a mathematical modeling of all the components of the fuel cell cogeneration system was conducted. The influence of several parameters such as pressure and current density on micro-CHP system performance is examined. The energy and environmental relevance of the system for the French context is studied. Then, a numerical study of a tri-generation system consisting of a fuel cell and a single-acting H2O / Li-Br absorption machine was conducted. The micro-tri-generation unit is coupled to a single-family house and the energy performance of the system is evaluated. Finally, in order to evaluate the potential of coupling the tri-generation system with renewable energies, a hydrogen production system with photovoltaic panels «PV-H2» has been studied. A modeling of the various components of the "PV-H2" system has been carried out. The simulation results of the coupling of the «PV-H2» system with an individual house in the eco-district of La Glacerie are presented.
36

Développement de nouvelles méthodes de mesure du frottement transversal entre fibres / Development of new measurement methods of transversal friction between fibers

Gassara, Houssem Eddine 13 December 2016 (has links)
Le comportement mécanique des structures fibreuses, particulièrement le comportement transverse de filés de fibres et de mèches multi-filamentaires est tributaire entre autre du contact et glissement inter fibre. La connaissance de loi de comportement en compression transverse est un verrou scientifique de taille lors de la modélisation numérique du comportement mécanique de structures fibreuses. La mesure des propriétés frictionnelles des fibres, dont les dimensions transversales sont en général très faibles, est une entreprise très délicate. Le contact et le mouvement relatif entre deux fibres, malgré leurs complexités peuvent être résumés par trois cas simples, schématisés ci-dessous. Il existe dans la littérature scientifique un certain nombre d’études et de dispositifs sur le contact et le frottement interfibre, mais ils se concentrent tous sur les cas A et B, rien ne permet pour l’instant de modéliser et de mesurer le frottement interfibre dans la configuration C. Or, c’est bien dans cette dernière configuration que se produisent les mouvements interfibre lors de la compression transversale des filés ou mèches multi-filamentaire. De nouveaux dispositifs expérimentaux ont été conçus et développés afin de caractériser le frottement transversal entre fibres. / The mechanical behavior of fibrous structures, particularly the transverse behavior of spun yarns and multi-filament strands is among others dependent on contact and inter fiber slippage. Knowledge of law of transverse compression behavior is a relatively important lock at numerical modeling of fibrous structures’ mechanical behavior. Measuring of frictional properties of very thin fibers is not easy because of very low levels of normal and tangential interfiber forces developed during the fiber contact. The contact and relative motion between two fibers, despite their complexity, can be summarized by three simple cases shown above. In scientific literature, there are a number of studies and experimental devices on interfiber contact and friction, but they all focus on the A and B cases; nothing is proposed unfortunately in the experimental literature on the t-t friction measurement type (case (c) in Figure above). However, it is in this configuration that the inter fiber movements occur during transverse compression of yarns or multi-filament strands. New experimental devices have been designed and developed in order to characterize the transversal friction between fibers.
37

Development of New Photoiniator Systems for Polymerization with Visible Light / Développement de Nouveaux Systèmes Photomamorceurs de Polymérisation sous Lumière visible

Di Stefano, Luciano Héctor 26 November 2015 (has links)
La photopolymérisation est une technologie qui gagne de plus en plus d’importance de par ses nombreuses applications et ses énormes avantages par rapport à la polymérisation thermique tels que le respect de l’environnement, des coûts économiques maitrisés car la technologie est mise en œuvre à température ambiante et ne requiert qu’une faible consommation d'énergie. De plus, elle n'utilise pas ou très peu de solvants, d'où la réduction d’émission de produits polluants. Le processus de polymérisation photochimique présente également l’avantage d’être très rapide : en effet les réactions de photopolymérisation sont souvent rapides voire même quasi instantanées. De plus le procédé de polymérisation devient photolatent : la polymérisation impliquant les formulations actives seulement en présence de lumière, la réaction peut être déclenchée « quasi à la demande ». Ce processus chimique nécessite des composants nommés « photoamorceurs », lesquels absorbent la lumière et produisent le démarrage de la réaction de polymérisation. En particulier, le développement de systèmes photoamorceurs capables d’absorber de la lumière visible a un intérêt croissant pour différentes applications industrielles, notamment l’holographie. Dans la cadre de cette thèse, des diverses systèmes photoamorceurs contenant un colorant et un ou deux co-amorceurs, qui après réaction avec les états excités des colorants génèrent les radicaux actifs, ont été étudiés, depuis leurs propriétés photophysiques fondamentales et moléculaires, jusqu’aux applications et performances pour la polymérisation des résines acrylates. Cette thèse est articulée autour de six chapitres. Dans le premier chapitre une introduction et une étude bibliographique des différents systèmes photoamorceurs développés ces dernières années sont présentées et comparés. Les chapitres deux et trois sont consacrés à l’étude des propriétés photochimiques et photophysiques réalisés sur des photoamorceurs absorbant de la lumière ultraviolette et visible respectivement. Les techniques utilisés dans ces chapitres incluent, mais ne sont pas limités à, la spectroscopie d’absorption UV-Vis stationnaire, la fluorescence, la photolyse éclaire (LFP), la fluorescence résolue en temps par comptage de photon unique (TC-SPC), la spectroscopie ultrarapide nanoseconde et femtoseconde, la spectroscopie de résonance paramagnétique électronique (EPR), entre autres. Le chapitre deux porte sur l’étude de la photophysique d’un colorant de type cyanine : l’astrazone Orange R (AO R). La photophysique de ce colorant n’est pas connue et une étude exhaustive a été menée avec des spectroscopies ultra rapides (femtoseconde) ainsi que par modélisation moléculaire. Malgré sa photophysique compliquée ce colorant, fonctionne comme un photoamorceur très efficace dans la région bleue du spectre électromagnétique. Les chapitres suivants forment une deuxième partie de la thèse dédiée à l’étude des mécanismes d’amorçage de photopolymérisation, dont le chapitre quatre aborde le cas d’irradiation le plus « traditionnel », qui est l’irradiation en mode continu (ou CW). Est ensuite abordé l’étude de la polymérisation sous irradiation pulsée ultra-courte : dans cette partie la source d’irradiation continue classique est remplacée par un laser Nd :Yag qui produit des impulsions lumineuses d’une durée de quelques 9-10 nanosecondes. Cette polymérisation avec laser pulsé ou PLP est très originale et sera étudiée par spectroscopie infrarouge à transformée de Fourier résolue en temps (RT-FTIR). Dans le chapitre trois, donc, on retrouve les études réalisés avec différents types de systèmes photoamorceurs visibles. Ainsi, les propriétés des colorants capables d’absorber de la lumière visible à différentes longueurs d’onde ont été étudiées dans des systèmes photoamorceurs à deux et trois composants. / Photopolymerization is a technology that is gaining more and more importance due to its numerous applications and its advantages compared to thermic polymerization. This chemical process requires compounds called photoinitiators, which absorb light and produce the initiation of the radical polymerization. The development of photoinitiating systems (PIS) which are able to absorb visible light have an increasing interest due to its industrial applications, such as holographic recording. During this thesis, many PIS were studied, from its photophysical properties to its application in acrylate polymerization. There are many different types of photoinitiators. The most classical ones are Type I PI, which are molecules that overcome homolytic cleavage from their excited state, generating initiating radicals immediately after photon absorption. Type II PI, in contrast, are composed by two molecules: one that absorbs the photon, and other that will react with the excited state of the first via electron transfer or hydrogen transfer, generating radicals that will be able to initiate polymerization. In last place, there are the most efficient Photocyclic Initiating Systems (PCIS) whose mechanism is more complicated and will be widely discussed within these pages. A state of the art of the PIS available up to date is made in the first chapter. Given the importance of the properties of the molecules involved in the photoinitiating process, the studies of the photophysical properties of a Photoinitiator, the Astrazone Orange (AO), are shown. It was found that this molecule suffers an isomerization process from its excited state, which then comes slowly back to the more stable conformer. This process being viscosity-dependent makes AO a suitable photoinitiator for polymerization with visible light in highly viscous media. The last three chapters of this thesis are devoted to the study of a novel technique called Pulsed Laser Polymerization (PLP). This technique consists in the irradiation of the samples with a short duration pulsed laser, which allows the separation of the initiation steps of the polymerization reaction from the steps of propagation and termination. A simple Type I PI was used as a model to study the properties of this technique of polymerization. The monomer conversion was registered by RT-FTIR and analyzed. To a better understanding of these results, a mathematical model was developed. Thanks to it, it was possible to collect valuable information about propagation and termination rate constants (kp and kt, respectively), the variation of viscosity with conversion and other aspects relatives to PLP mechanism. Furthermore, the efficiency of many visible light PIS was studied by PLP. Their performance was compared and studied and contrasted with the classical continuous irradiation mode (CW). The characteristics that a PIS must have in order to show efficient polymerization in PLP mode were found and discussed. Finally, the effect of formulation viscosity in PLP and CW was analyzed by diluting the sample with different amounts of DMSO. In PLP, it was seen that the highest conversion is found for the most concentrated samples, while the opposite effect is noticed in CW. This result is attributed to the different conditions given by the difference in irradiation methods.
38

Etude du travail de l'enseignant autour de la simulation en classe de troisième et seconde : métamorphoses d'un problème au fil d'une formation en probabilité / Study of the Teacher's Work around Simulation in the Third and Second Grade : Metamorphoses of a Problem during a Probability Training

Masselin, Blandine 12 June 2019 (has links)
La thèse porte sur le travail des enseignants autour de la simulation en probabilité en classe de troisième et seconde. Nous avons exploré la manière dont les enseignants de mathématiques, s'emparent d'une tâche qui leur a été présentée lors d'une formation. Notre recherche prend appui sur cette tâche (le problème du lièvre et de la tortue) pour répondre à nos questions sur les liens entre expériences aléatoires et modèles, sur la place des artefacts et sur la nature des preuves utilisant une simulation. Pour mener notre étude, nous avons adopté la théorie des Espaces de Travail Mathématique (Kuzniak, 2011), ainsi que des éléments complémentaires tels que le cycle de modélisation de Blum & Leiss (2009). Nous avons introduit la notion d'avatar pour rendre compte des transformations de la tâche afin de suivre la trajectoire d'avatars successifs. Notre méthodologie de recherche spécifique est composée de trois boucles dont l'une inclut une formation continue courte. La première boucle est concernée par la préparation de la formation avec notamment une première implémentation du problème par des formateurs dans leur classe. La deuxième boucle, constituée de trois étapes, est celle de la formation proprement dite. Un premier scénario est élaboré par un collectif de stagiaires à la suite d'un travail d'analyse a priori du problème. Il est suivi de la mise en œuvre de la tâche par l'un des stagiaires dans une classe prêtée par les formateurs et observée par les autres participants du stage. Enfin le collectif élabore, a posteriori, un nouvel avatar repensé au regard de l'analyse de l'avatar précédent et de sa mise en œuvre. La troisième boucle comporte les avatars testés par les stagiaires dans leur propre classe après la formation. En se référant à un ETM idoine attendu défini pour la recherche, il s'agit de repérer les transformations opérées pendant et après la formation et portant sur les itinéraires cognitifs autour du problème du lièvre et de la tortue. L'étude de ces trois boucles successives a permis de révéler l'existence de ruptures entre expérience aléatoire et modèles mathématiques lors de la résolution de ce problème. Ces ruptures sont dues à la fois à l'artefact numérique choisi pour la simulation (le tableur ou le logiciel Scratch) et au travail de l'enseignant. Grâce à un rapprochement des plans de l'ETM privilégiés par l'enseignant et les élèves dans la circulation du travail, nous avons pu repérer une tendance des enseignants à uniformiser le choix du modèle ou le type de preuve pour ce problème. De plus, certaines phases de l'ETM idoine attendu défini pour la recherche (comme l'explicitation autour des expériences aléatoires en jeu, la justification de l'introduction de la simulation ou la preuve par les calculs de probabilités) sont peu représentées ou absentes dans les itinéraires cognitifs prévus et empruntés dans ces trois boucles. Ceci traduit une difficulté d'articulation entre probabilités et statistique autour de la simulation chez l'enseignant. Dans un cas, la deuxième boucle a montré un épaississement de la dimension instrumentale relatif au travail de l'enseignant et aux artefacts numériques choisis. Elle a aussi mis en évidence différents modes de gestion des groupes d'élèves, transformant l'avatar initial et la circulation du travail dans l'ETM idoine. Les divers itinéraires cognitifs que nous avons pu observer à l'issue de la formation nous ont permis d'identifier des effets de la formation et notamment des dénaturations simplificatrices (Kuzniak, 1995) opérées par l'enseignant sur l'avatar ou l'ETM idoine associé. / The thesis focuses on teacher's work around probability simulation in grades 9 and 10 in France. We explored how mathematics teachers take on a task crossed during a training session. Our research builds on this task (the hare and turtle problem) to answer our questions about the links between random experiments and models, the place of artefacts and the proofs' nature using simulation. To make our study, we adopted the theory of Mathematical Work Spaces (MWS, Kuzniak, 2011), as well as complementary elements such as the modeling cycle of Blum & Leiss (2009). We introduced the notion of avatar to account for transformations of the task in order to follow the trajectory of successive avatars. Our specific research methodology is based on three loops, and the second one includes short continuing training course. The first loop contains the elaboration of the training with a first implementation of the problem by trainers in their class. The second loop, consisting of three stages, is the training proper. A first scenario is developed by a group of trainees following a analysis a priori of the problem. It is followed by the implementation of the task by one of the trainees in a class lent by the trainers and observed by the other participants of the course. Finally, the collective develops, a posteriori, a new avatar redesigned with regard to the analysis of the previous avatar and its implementation. The third loop includes the avatars tested by the trainees in their own class after the training.Referring to a well-defined MWS expected for the research, it lets us identify the transformations made during and after the training and relates to the cognitive routes around the problem of the hare and the turtle. The study of these three successive loops reveals the existence of breaks between random experience and mathematical models during the resolution of this problem. These breaks are due to both the numerical artefact chosen for the simulation (the spreadsheet or the Scratch software) and to the teacher's work. Through a comparison of teacher and student-led MWS plans in the model of MWS, we were able to identify a tendency for teachers to standardize the choice of model for this problem. In addition, some phases of the MWS expected defined for the research (such as the explicitness around the random experiments in play, the justification of the introduction of the simulation or the proof by the calculations of probabilities) are little represented or absent in the cognitive routes planned and borrowed in these three loops. This reflects a difficulty of articulation between probabilities and statistics around simulation in the teacher. In one case, the second loop showed a thickening of the instrumental dimension relative to the teacher's work and to the chosen digital artefacts. She also highlighted different ways of managing groups of students, transforming the initial avatar and the flow of work in the appropriate MWS. The various cognitive routes that we observed at the end of the training allowed us to identify the effects of the training and in particular the simplifying denaturations (Kuzniak, 1995) made by the teacher on the avatar or the suitable MWS.
39

Plasma discharge 2D modeling of a Hall thruster / Modélisation bidimensionnelle de la décharge plasma dans un propulseur de Hall

Croes, Vivien 24 October 2017 (has links)
Alors que les applications spatiales prennent une place de plus en plus cruciale dans nos vies, les coûts d'opération des satellites doivent être réduits. Ceci peut être obtenu par l'utilisation de systèmes de propulsion électriques, plus efficients que leurs homologues chimiques traditionnellement utilisés. Une des technologies de propulsion électrique la plus performante et la plus utilisée est le propulseur à effet Hall, toutefois ce système reste complexe et peu compris. En effet de nombreuses questions, concernant le transport anormal des électrons ou les interactions plasma/paroi, sont encore ouvertes.Les réponses à ces questions sont basées sur des mécanismes cinétiques et donc ne peuvent être résolues par des modèles fluides. De plus les caractéristiques géométriques et temporelles de ces mécanismes les rendent difficilement observables expérimentalement. Par conséquent nous avons, pour répondre à ces questions, développé un code cinétique bi-dimensionnel.Grâce à un modèle simplifié de propulseur à effet Hall, nous avons observé l'importance de l'instabilité de dérive électronique pour le transport anormal. Ensuite en utilisant un modèle réaliste de propulseur, nous avons pu étudier les effets des interactions plasma/paroi sur la décharge plasma. Nous avons également pu quantifier les effets intriqués des émissions électroniques secondaires et de l'instabilité de dérive sur le transport anormal. Par une étude paramétrique sur les émissions électroniques secondaires, nous avons pu identifier trois régimes de décharge plasma. Finalement l'impact des ergols alternatifs a pu être étudié en utilisant des processus collisionnels réalistes. / As space applications are increasingly crucial in our daily life, satellite operating costs need to be decreased. This can be achieved through the use of cost efficient electric propulsion systems. One of the most successful and competitive electric propulsion system is the Hall effect thruster, but this system is characterized by its complexity and remains poorly understood. Indeed some key questions, concerning electron anomalous transport or plasma/wall interactions, are still to be answered.Answers to both questions are based on kinetic mechanisms, and thus cannot be solved with fluid models. Furthermore the temporal and geometrical scales of these mechanisms make them difficult to be experimentally measured. Consequently we chose, in order to answer those questions, to develop a bi-dimensional fully kinetic simulation tool.Using a simplified simulation of the Hall effect thruster, we observed the importance of the azimuthal electron drift instability for anomalous cross-field electron transport. Then, using a realistic model of a Hall effect thruster, we were able to study the effects of plasma/wall interactions on the plasma discharge characteristics, as well as to quantify the coupled effects of secondary electron emission and electron drift instability on the anomalous transport. Through parametric study of secondary electron emission, three plasma discharge regimes were identified. Finally the impact of alternative propellants was studied.
40

Optimisation de modèles permettant de réduire l'incidence d'une maladie par l'introduction de nouveaux critères de sélection liés à de(s) gène(s) de résistance chez les animaux domestiques / Optimization of models allowing to reduce disease incidence, using new selection criteria associated with resistance genes in livestock animals

Costard, Anne 10 November 2010 (has links)
Les moyens mis en oeuvre chez les animaux domestiques pour lutter contre les maladies dépendent de leur vitesse de propagation, de leur virulence et surtout de leur capacité à passer la barrière d'espèce. Certaines maladies entraînent des pertes économiques importantes chez l'animal(des centaines de milliers de vaches ont été abattues pendant l'épidémie de BSE). Bien plus, dans le cas des zoonoses, maladies transmissibles à l'homme, il convient d'appliquer des mesures de lutte extrêmement onéreuses s'organisant dans les élevages mais aussi à l'échelle des populations. Plusieurs stratégies de prévention et/ou de traitement des maladies infectieuses sont possibles: les traitements chimiques, la vaccination, la désinfection des bâtiments d'élevage et la conduite des troupeaux, le contrôle sanitaire et la traçabilité des produits alimentaires,l'abattage partiel ou total des troupeaux infectés. Ces mesures peuvent être très onéreuses et parfois peu efficaces. Ces maladies peuvent être mono ou multifactorielles. Quand une maladie est en partie régulée par une prédisposition génétique, il est possible de choisir des reproducteurs les plus résistants et diminuer ainsi l'incidence de la maladie. Si cette prédisposition est monogénique, ou pour le moins sous l'influence d'un gène à effet majeur, comme par exemple dans la tremblante ovine,la sélection assistée par gène peut être une stratégie complémentaire aux stratégies déjà existantes. Mais cette sélection ne peut se faire indépendamment de celle des caractères traditionnels de production qui ont permis d'améliorer par exemple la quantité de lait en races laitières ou le nombre et la croissance des animaux en races bouchères. La question qui se pose alors est d'arriver le plus rapidement possible à une incidence quasi nulle de la maladie en créant une population essentiellement porteuse des allèles de résistance au gène sélectionné tout en évitant de perdre le gain génétique acquis sur les caractères traditionnels de production. L'objectif de cette thèse a été de répondre à cette question en proposant une approche paramétrique permettant de modéliser et d'optimiser la stratégie de sélection. Le paramétrage du modèle permet de décrire de manière détaillée les caractéristiques du/des gène(s) de résistance sélectionné(s) et celles du schéma de sélection sur les caractères de production, souvent complexes chez les animaux domestiques. Les sorties du modèle sont l'évolution des distributions des caractères de production (moyennes, variabilités) et des fréquences des allèles de résistance / sensibilité. Afin de prendre en compte le processus de sélection, une modélisation dynamique a été utilisée. Des approches déterministe et stochastique ont été développées et ont été optimisées à l'aide d'un algorithme génétique. La stratégie optimale difficile à promouvoir sur le terrain a été alors considérée comme référence pour la mise en place de stratégies de sélection acceptables et efficaces. Il est possible ainsi d'évaluer différents scénarios concernant par exemple l'organisation du génotypage (pour le gène de résistance) dans la population sélectionnée, le choix des conjoints selon leur génotype, ainsi que la méthode de diffusion des reproducteurs vers les élevages de production. La méthodologie développée lors de ce travail a été appliquée au cas de la tremblante du mouton, un exemple possible parmi d'autres maladies. Différentes stratégies proches de l'optimale ont été combinée à un modèle épidémiologique afin d'analyser l'impact de ces dernières sur l'évolution de la maladie. / The resources to be used in domestic animals to fight against the diseases depend on their diffusion speed, their virulence and especially their ability to pass the species barrier. Some diseases cause significant economic losses in animals (hundreds of thousands of cows were culled during the BSE epidemic). Moreover, in the zoonotic case, diseases transmissible to humans, measures to be implemented are generally extremely expensive both at the farm and population levels. Several strategies for the prevention and / or treatment of infectious diseases are possible : chemical treatments, vaccination, disinfection of livestock buildings and herd management, health monitoring and traceability of food products, or partial or full slaughtering of herds . These measures can be very costly and sometimes ineffective. These diseases can be mono or multifactorial. In the case of genetic diseases (most often single gene such as sheep scrapie), gene-assisted selection can be a complementary strategy to existing strategies. But this selection can not be done independently of the selection of the traditional production traits such as the quantity of milk in dairy breeds or the number and the growth of animals in beef breeds. The question that arises is how to reach as quickly as possible an almost zero incidence of the disease by creating a population displaying a high proportion of the resistant allele at the gene of interest while minimizing the loss of genetic progress on traditional production traits. The objective of this thesis was to answer this question by proposing a parametric approach to model and optimize the selection strategy. The parametrization of the model allowed to describe in detail the characteristics of the gene (s) selected for resistance (s) and those of the breeding scheme on production traits, often complex in domestic animals. The model outputs were the evolution of distributions of production traits (means, variability) and allele frequencies of resistance / sensitivity. To take into account the selection process, a dynamic model was used. Deterministic and stochastic approaches have been developed and have been optimized using a genetic algorithm. The optimal strategy may be difficult to apply. The optimal strategy may be taken as a reference for the development of selection strategies. It is thus possible to evaluate different scenarios such as the genotyping organization (for the resistance gene) in the selected population, the choice of the mating according to their genotype, the method of dissemination of reproducers to the production farms. The methodology developed in this work has been applied to the scrapie case, a possible example among other diseases. Different strategies close to optimal have been combined with an epidemiological model to analyze their impact of the spread of the disease.

Page generated in 0.1403 seconds