• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 288
  • 88
  • 19
  • 1
  • 1
  • 1
  • Tagged with
  • 408
  • 170
  • 89
  • 64
  • 52
  • 48
  • 42
  • 27
  • 25
  • 25
  • 24
  • 23
  • 22
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modélisation des systèmes synchrones en BIP

Sfyrla, Vasiliki 21 June 2011 (has links) (PDF)
Une idée centrale en ingénierie des systèmes est de construire les systèmes complexes par assemblage de composants. Chaque composant a ses propres caractéristiques, suivant différents points de vue, chacun mettant en évidence différentes dimensions d'un système. Un problème central est de définir le sens la composition de composants hétérogènes afin d'assurer leur interopérabilité correcte. Une source fondamentale d'hétérogénéité est la composition de sous-systèmes qui ont des différentes sémantiques d'execution et d' interaction. À un extrême du spectre sémantique on trouve des composants parfaitement synchronisés par une horloge globale, qui interagissent par transactions atomiques. À l'autre extrême, on a des composants complètement asynchrones, qui s'éxécutent à des vitesses indépendantes et interagissent nonatomiquement. Entre ces deux extrêmes, il existe une variété de modèles intermédiaires (par exemple, les modèles globalement asynchrones et localement synchrones). Dans ce travail, on étudie la combinaison des systèmes synchrones et asynchrones. A ce fin, on utilise BIP (Behavior-Interaction-Priority), un cadre général à base de composants permettant la conception rigoureuse de systémes. On définit une extension de BIP, appelée BIP synchrone, déstiné à modéliser les systèmes flot de données synchrones. Les pas d'éxécution sont décrites par des réseaux de Petri acycliquemunis de données et des priorités. Ces réseaux de Petri sont utilisés pour modéliser des flux concurrents de calcul. Les priorités permettent d'assurer la terminaison de chaque pas d'éxécution. Nous étudions une classe des systèmes synchrones ''well-triggered'' qui sont sans blocage par construction et le calcul de chaque pas est confluent. Dans cette classe, le comportement des composants est modélisé par des 'graphes de flux modaux''. Ce sont des graphes acycliques représentant trois différents types de dépendances entre deux événements p et q: forte dépendance (p doit suivre q), dépendance faible (p peut suivre q) et dépendance conditionnelle (si p et q se produisent alors $p$ doit suivre q). On propose une transformation de modèles LUSTRE et MATLAB/Simulink discret à temps discret vers des systèmes synchrones ''well-triggered''. Ces transformations sont modulaires et explicitent les connexions entre composants sous forme de flux de données ainsi que leur synchronisation en utilisant des horloges. Cela permet d'intégrer des modèles synchrones dans les modèles BIP hétérogènes. On peut ensuite utiliser la validation et l'implantation automatique déjà disponible pour BIP. Ces deux traductions sont actuellement implementées et des résultats expérimentaux sont fournis. Pour les modèles BIP synchrones nous parvenons à générer du code efficace. Nous proposons deux méthodes: une implémentation séquentielle et une implémentation distribués. L'implémentation séquentielle consiste en une boucle infinie. L'implémentation distribuée transforme les graphes de flux modaux vers une classe particulieére de réseaux de Petri, que l'on peut transformer en réseaux de processus de Kahn. Enfin, on étudie la théorie de la conception de modeéles insensibles à la latence (latency-insensitive design, LID) qui traite le problème de latence des interconnexionsdans les systèmes synchrones. En utilisant la conception LID, les systèmes synchrones peuvent être "désynchronisés" en des réseaux de processus synchrones qui peuvent fonctionner à plus haute fréquence. Nous proposons un modèle permettant de construire des modéles insensibles à la latence en BIP synchrone, en représentant les mécanismes spécifiques d'interconnexion par des composants BIP synchrone.
102

Simulation numérique du soudage du TA6V par laser YAG impulsionnel : caractérisation expérimentale et modélisation des aspects thermomécanique associées à ce procédé

Robert, Yannick 17 September 2007 (has links) (PDF)
Les procédés de soudage conduisent à des modifications de microstructure et induisent des contraintes et distorsions résiduelles jouant un rôle important sur la tenue mécanique des assemblages. Cette étude a pour objectif la modélisation des phénomènes thermomécaniques liés à l'opération de soudage du TA6V, ce qui implique d'identifier et de modéliser les sollicitations thermiques imposées par le soudage, le comportement métallurgique et thermomécanique du matériau. L'étude thermique et métallurgique a permis de montrer les principales évolutions de phases de l'alliage, durant le soudage laser. Ainsi, en première approximation, nous pouvons considérer que 3 phases distinctes sont à prendre en compte dans le calcul thermomécanique (la phase a, la phase ß et la phase a'). Afin de caractériser les phases ou mélange de phase en présence, des essais thermomécaniques sont réalisés pour diverses températures et conditions de déformation. Concernant le choix du modèle numérique, on adopte pour chacune des phases un modèle à variables internes de type Lemaître et Chaboche avec écrouissage cinématique non linéaire, un critère de plasticité de type Von Mises et une loi d'écoulement viscoplastique de type Norton, couplé à une loi de transition d'échelle. L'identification de chaque phase se fait par méthode inverse, à partir des essais thermomécaniques, grâce au module d'optimisation de ZSeT/ZMaT. La loi de localisation choisie est basée sur un modèle polycristallin en ß qui permet le passage du comportement microscopique de chaque phase au comportement macroscopique de l'ensemble. La validité de ce modèle décrit précédemment passera par la définition d'un essai expérimental représentatif des différents phénomènes rencontrés lors de l'opération de soudage.
103

Modélisation biomécanique de la main pour l'estimation des contraintes du système musculo-squelettique lors de la préhension pouce-index / Biomechanical modelling of the hand to estimate musculoskeletal constraints during thumb-index finger pinch grip

Domalain, Mathieu 19 February 2010 (has links)
La préhension manuelle est une des habilités de l’homme la plus développée et la plus utilisée dans la vie de tous les jours. Cette capacité nous permet de saisir et de manipuler des objets dans des configurations aussi nombreuses que complexes. Malheureusement, la main est aussi le siège de nombreuses blessures qui, de par l’importance de la préhension, sont fortement handicapantes. Face à ce constat, comprendre les contraintes mécaniques qui sont exercées dans les muscles, les tendons, les articulations et les ligaments lors de gestes de la vie quotidienne apparaît comme un enjeu majeur pour la prévention, la réhabilitation et l’ergonomie. L’objectif de ce travail doctoral était de développer un modèle biomécanique de la préhension permettant une estimation de ces variables non mesurables. A titre d’exemple,le paradigme de la pince pouce-index a été utilisé. Dans une première étude, les modèles biomécaniques de la pince disponibles dans la littérature ont été développés et comparés.Suite à cette évaluation, il a été constaté que ces modèles, en particulier le pouce,nécessitaient des améliorations pour permettre une évaluation physiologiquement réaliste lors de la préhension. Dès lors, plusieurs améliorations ont été proposées. Premièrement, une procédure expérimentale a été développée afin d’évaluer et d’inclure les participations mécaniques passives (ligaments, tissus mous, butées osseuses) de l'articulation trapèzométacarpienne. Deuxièmement, des mesures effectuées par IRM ont été utilisées afin d’intégrer l’action mécanique du muscle First Dorsale Interosseous dans l’équilibre du pouce,ce muscle étant alors négligé malgré son importance dans les tâches de préhension.Troisièmement, une méthode expérimentale permettant d’évaluer plus facilement et plus précisément, in situ, les axes de flexion/extension et d’adduction/abduction de l’articulation trapèzométacarpienne a été proposée et évaluée. Enfin, le modèle biomécanique incluant ces améliorations a été mis en œuvre dans une dernière étude ergonomique visant à étudier l’effet de la taille de l’objet manipulé sur les forces musculaires et articulaires. / Manual precision grip is one of man's most developed and most used ability in everyday lifeactivities. The negative outcome is the high exposure of the hand to repetitive stress injurieswhich are often very disabling. Thus, the understanding of the mechanical stress exerted inmuscles, tendons, joints and ligaments during gripping tasks appears as a major issue forinjury prevention, rehabilitation and ergonomic considerations. This doctoral work aimed atdeveloping a biomechanical model of the grip to estimate the unmeasurable internal loads. Asan example, the classical paradigm of the thumb - index finger grip was used. In a first study,the biomechanical models of the thumb available in the literature were compared and severalimprovements proposed in order to obtain more physiologically realistic predictions. First, anexperimental method was developed to evaluate and include passive structures moment intothe equilibrium of the trapeziometacarpal joint (TMC). Secondly, MRI was used to integratethe mechanical action of the First Dorsal Interosseous muscle at the TMC, since this musclehas commonly been neglected in thumb models but seems essential during pinch grip.Thirdly, the kinematic model which has to be used with the anthropometric data of tendonmoment arms was evaluated and compared to our proposition of a functional method toassess, in situ, the axes of rotation of the TMC. Finally, the biomechanical model includingthese improvements was implemented in an ergonomic study. We investigated the effect ofobject width on grip forces and muscles/joints loads. This doctoral work finds its consistencyin its desire to develop and apply the biomechanical modelling of the hand in the fields ofclinical and ergonomics.
104

Contribution to risk analysis related to the transport of hazardous materials by agent-based simulation / Contribution à l'analyse de risque lié au transport de matière dangereuse par simulation à base d'agents

Kanj, Hassan 19 September 2016 (has links)
Le transport de matières dangereuses (TMD) représente une source de danger pour les zones traversées. Ce danger peut produire des conséquences graves pour l’environnement, les biens ou les humains surtout si un accident aura lieu lors du transport. Due à l’importance de ces produits (essence, matières premières, médicaments) dans la vie quotidienne et à l’augmentation de la demande sur ces matières, il est utile d’analyser et d’évaluer le niveau de risque lié au TMD pour le minimiser. Ce risque dépend de la route suivie, de la quantité transportée, du moment de la journée, du trafic, des conditions météorologiques ainsi que de la densité de population des zones traversées. Il est caractérisé par les cibles qui sont exposées pour un temps donné et son niveau qui varie selon le temps et l'espace. L’objectif de cette thèse est d’évaluer et d’estimer le niveau de risque lié à un accident, et plus précisément le risque lié à l’expédition de marchandises dangereuses. Diverses méthodes sont élaborées pour proposer des modèles permettant de résoudre ce problème tout en tenant compte de différents paramètres tels que, le trafic, les conditions météorologiques, le coût et le temps du transport, ainsi que de leurs changements au cours du temps afin de détecter la meilleure route à suivre. La première partie de cette thèse représente l’état de l’art sur les différentes techniques d’analyse de risque pour le transport de matières dangereuses. Ensuite, deux approches sont proposées et étudiées en détail : une approche basée sur la simulation de Monte Carlo qui sert à évaluer le niveau de risque lié à un accident, et une autre qui estime le niveau de risque lié à une expédition de MD. La deuxième partie traite le problème de l’aspect temporel dans l’analyse de risque. En effet, l’importance du trafic, le taux d’occupation des bâtiments et les conditions météorologiques changent fortement selon le moment de la journée. À cause de la complexité de notre système (plusieurs entités, systèmes distribués, entités avec plusieurs niveaux d'abstraction, etc.), nous sommes tournés vers une approche de simulation multi-agents et nous proposons et implémentons un méta modèle d’agents avec une facette « risque ». Cette facette nous permet de représenter l’analyse de risque et la propagation de défaillance dans un modèle multi-agents. La troisième partie de cette thèse porte sur l’évaluation du niveau de risque lié au TMD. Dans un premier temps, nous proposons une approche d’évaluation basée sur l’évaluation de la fréquence d’un accident et de sa gravité. Ensuite, nous implémentons un simulateur en proposant le couplage de chacune de deux approches présentées dans la première partie avec le méta modèle d’agents présenté dans la seconde partie. Dans un second temps, comme la prise de décision est affectée par l’aspect économique et temporel (coût d’une expédition et durée du trajet), nous sommes face à un problème de décision multicritère (MCDM). Pour prendre en compte le fait que plusieurs paramètres utilisés dans l’analyse de risque sont incertains, nous avons utilisé une approche à base de nombres flous avec une extension de méthodes MCDM pour traiter ces incertitudes. Toutes ces méthodes sont implémentées sous Eclipse. Ensuite, un outil de simulation est développé. Il permet d’analyser le niveau de risque et de réaliser des cartographies qui illustrent la position instantanée du camion avec les zones impactées au cas d’accident. Ce travail est inscrit dans le cadre du projet GEOTRANS-MD. / Dangerous Goods Transport (DGT) represents a source of danger to the crossed areas. This danger can produce serious consequences for the environment, property or human beings. Due to the importance of these products (gasoline, first material, medicines) in everyday life and the increasing demand on these products, it is important to analyze and assess the level of risk related to DGT in order to minimize it. This risk depends on the followed route, the quantity of transported products, the time of day, the weather conditions and the population density of crossed areas. It is characterized by the targets that are exposed for a given time, and by the risk level that varies with time and space.The purpose of this thesis is to evaluate and assess the risk level related to an accident and especially risk related to DGT. Several methods to calculate the risk level, related to DGT, have been proposed in the literature. In most of these methods, the temporal aspect has not been taken explicitly into account in spite of its importance. Indeed, the volume of traffic, the building occupancy rates or weather conditions could greatly change depending on the time of day.The first part of this thesis summarizes the state of the art on risk analysis. Next, we present two approaches for assessing risk related to DGT systems: the former serves to evaluate the risk level of an accident and it is based on Monte Carlo Simulation, while the latter aims at assessing the risk level along a trajectory.The second part focuses on the temporal aspect and due to the complexity of our system (several entities, distributed systems, entities with multiple levels of abstraction, etc.), we are turned to a multi-agent simulation approach and we define a meta-model agent with a risk facet, a generic facet. This facet allows us to represent the risk analysis and failure propagation in an agent model.The third part of this thesis illustrates a proposed approach to assess the risk level related to DGT. Firstly, we propose formulas to assess the accident frequency and severity. Then, we present the implementation of both simulation approaches proposed in the first part using the agent based model proposed in the second part. Secondly, as decision-making is affected by the economic and temporal aspects (cost of shipping and travel time), we are facing a multi-criteria decision making problem (MCDM). In addition, to take into account the fact that several parameters used in risk analysis are uncertain, we have used fuzzy numbers. Next, we have proposed an approach, which integrates MCDM methods with fuzzy numbers, to identify the best route for DGT among a set of alternatives. The purpose of this approach is to provide decision support for decision makers such as, public authorities and emergency services in case of emergency.A simulation tool is developed in Eclipse, which allows us to analyze the level of risk and realizes maps that show the instantaneous position of the truck with the impacted areas in the case of accident. This work is a part of the GEOTRANS-MD project.
105

Dynamique morpho-sédimentaire de littoraux sableux macrotidaux à barres intertidales : modélisation numérique et expérimentations in situ / Morpho-sedimentary dynamics of macrotidal sandy shores with intertidal bars : numerical modeling and in situ experiments

Oudart, Thibault 12 October 2016 (has links)
L'objectif de cette thèse était de comparer des mesures de flux sédimentaires et des évolutions morphologiques in-situ à des simulations numériques 2DH sur des plages macrotidales à barres intertidales. Ces comparaisons ont été réalisées sur deux plages de la région Nord Pas de Calais – Picardie, la plage de Zuydcoote et la plage de Hardelot. Ces plages sont caractérisées par un système barre-bâche sableux rectiligne.Ce travail a permis d'acquérir des données courantométriques et des données de houle sur le profil de chaque plage pendant une semaine ainsi que des données situées plus au large nécessaires pour le forçage du modèle numérique. Des mesures ponctuelles de flux sédimentaires ont également été réalisées à l'aide de pièges à sédiments ainsi qu'un suivi d'évolution du fond à l'aide de mesures DGPS en début et fin de campagnes de mesures.L'ensemble de ces données a été comparé aux résultats obtenus par un modèle numérique 2DH. Ce modèle numérique est composé de trois modules de la chaîne de calcul TELEMAC, un module pour la prise en compte des courants de marée, un module de propagation spectrale de la houle, et un module de transport de sédiments et d'évolution morphologique. A l'aide de ces modules, des simulations ont été réalisées sur la durée des campagnes de mesures afin de calibrer différents paramètres en comparant les résultats aux mesures in-situ, notamment le coefficient de Strickler, l'indice de déferlement des vagues, ainsi que différentes formules de transport sédimentaire.Ces simulations ont permis de montrer l'influence de l'indice de déferlement sur les résultats des simulations à la fois sur la partie hydrodynamique ainsi que pour le transport sédimentaire et l'évolution morphologique.Quatre différentes formules de transport sédimentaire ont été utilisés afin de déterminer leurs capacités à reproduire les mesures de transport sédimentaire et d'évolution in-situ en fonction de l'indice de déferlement.Ce modèle a permis de mettre en évidence le rôle des vagues et de leurs déferlements sur la direction et l'intensité du transport sédimentaire ainsi que des zones préférentielles d'accrétion et d'érosion. Cette étude a également montré certaines limites du modèle principalement sur les vitesses perpendiculaires à la plage suite à l'utilisation d'un modèle 2D, ainsi que des limitations induites par l'utilisation d'un indice de déferlement prenant en compte uniquement le rapport hauteur de vague sur profondeur, et limitant le déferlement sur la crête des barres et dans la pente entre la barre et la bâche supérieur sur la plage. / The objective of this thesis was to compare sediment flux measurements and in situ morphological changes with 2DH numerical simulations on macrotidal beaches with intertidal bars. These comparisons were made on two beaches in the Nord Pas de Calais - Picardie ,Zuydcoote Beach and Hardelot Beach. These beaches are characterized by a straight sandy bar-trough system.This work allowed to acquire current data and wave data on the profile of each beach and also offshore data for a period of one week. Sediment flux measurements were also conducted using sediment traps and by monitoring bottom evolution using DGPS measurements at the beginning and the end of the campaigns.All these data were compared with results obtained by a digital 2DH model. This digital model is composed of three modules of the TELEMAC calculation chain, a module for taking into account the tidal currents, a spectral propagation module for the waves, and a sediment transport module with morphological evolution. Using these modules, simulations were performed for the duration of measurement campaigns to calibrate various parameters by comparing the results with in-situ measurements, including the Strickler coefficient, the wave-breaking index and four different sediment transport formulas.These simulations show the influence of the breaker index on both the hydrodynamic part and the sediment transport and morphological evolution.The different sediment transport formulas were used to determine their ability to reproduce the sediment transport measurements and the evolution according to the breaker value.This model has helped to highlight the role of waves and surges on the direction and intensity of the sediment transport as well as preferential areas of accretion and erosion. This study also shows some limitations of the model mainly on the speed perpendicular to the beach and the limitations caused by the use of a breaker index taking only into account the ratio between wave height and the deep, and limiting the surge on the crest of the bars and into the slope between the bar and the top trough on the beach.
106

Control of coupled transport in Tokamak plasmas / Commande de transport couplé dans les plasmas Tokamak

Mavkov, Bojan 24 January 2017 (has links)
L'objectif de cette thèse est le développement de nouvelles méthodes d'analyse et de commande pour une classe d'équations aux dérivées partielles couplées permettant de modéliser le transport combiné du flux magnétique et de la pression (produit de la densité et de la température) dans les plasmas tokamak. Le système couplé est représenté par deux équations 1D de diffusion résistive. Dans cette thèse, on a obtenu deux types de modèles: le premier repose sur des principes physiques et le second exploite les données obtenues en utilisant des techniques d'identification des systèmes. La conception de commande est basée sur l'etude en dimension infinie en utilisant l'analyse de Lyapunov. Le contrôle composite est synthétisé en utilisant la théorie des perturbations singulières pour isoler la composante rapide de la composante lente. Tout le travail théorique est implémenté et testé dans des simulations basées sur la physique avancée en utilisant le simulateur de plasma pour les tokamaks DIII-D, ITER et TCV. / The objective of this thesis is to propose new methods for analysis and control of partial differential equations that describe the coupling between the transport models of the electron pressure (density multiplied by the temperature) and the magnetic flux in the tokamak plasma. The coupled system is presented by two1D resistive diffusion equations. In this thesis two kinds of control models are obtained. The first is a first-principle driven model and the second one is the data-driven model obtained using system identification techniques. The control design is based on an infinite dimensional setting using Lyapunov analysis. Composite control is designed using singular perturbation theory to divide the fast from the slow component. All the theoretical work is implemented and benchmarked in advanced physics based on simulations using plasma simulator dor DIII-D, ITER and TCV tokamaks.
107

Reconstruction de la déformée d’une aiguille instrumentée / Reconstruction of the deformed shape of an instrumented needle

Schaefer, Pierre-Loup 28 March 2017 (has links)
La plupart des environnements de navigation de gestes interventionnels utilisant des aiguilles font l'hypothèse que celles-ci ne se déforment pas durant l'intervention. En pratique, cette hypothèse n'est pas toujours vérifiée car les aiguilles intéragissent avec les tissus lors des insertions et subissent alors des déformations parfois importantes. Cet effet provoque une perte de précision sur le geste réalisé. Ma thèse fait partie du projet ANR GAME-D dont l'objectif est de répondre à cette problématique par l'étude et le prototypage d'une aiguille instrumentée qui permettra à terme aux cliniciens de visualiser la déformation de l'aiguille en 3D et en temps réel. Mes travaux de recherche se focalisent sur la reconstruction de la déformée d'une aiguille instrumentée à partir des capteurs de déformations fixés à sa surface. L'impératif de précision nécessaire à une utilisation clinique du dispositif se heurte alors aux limitations techniques qui restreignent fortement le nombre de capteurs de déformation implantable sur une aiguille. Les méthodes développées pour résoudre cette problématique s'articulent autour de deux thématiques: l'obtention des données de capteurs et leurs exploitations. L'utilisation de la théorie des poutres permet, par l'etude des déformations des capteurs, d'obtenir des informations de déformations supplémentaires tel que la torsion. Elle permet également de développer des méthodes de reconstruction capables d'exploiter ces nouvelles informations et qui se révèlent donc plus précises. Une méthode d'optimisation des positions de capteurs fondée sur des données expérimentales de piqués d'aiguille est proposée. Les positions optimales calculées permettent d'augmenter la significativité des données renvoyées par les capteurs. Le traitement statistiques réalisé à partir des données expérimentales permet d'extraire les caractéristiques des déformations des aiguilles dans les tissus et de les utiliser dans une méthode de reconstruction spécifiquement développé. La représentativité de ces caractéristiques aide alors à la reconstruction de la déformée. / Most of navigation system dedicated to interventional radiology make the assumption that needles stay straight during insertions in tissues. In practice, this hypothesis is not verified as the interactions between needles and surrounding tissues cause the needles to bend, resulting in a loss of accuracy. My PhD thesis is a part of the national projet GAME-D whose goal is to solve that problem by developing and studying instrumented needles which should eventually provide 3D deformed shape of the needle to clinicians in real-time. My reasearch work focus on reconstruction of deformed needle shape from its strain sensors data. Precision needed for clinical use faces technical limitations which restraint number of sensors embedded on the needle. Methods developped to adress this issue fall into one of these two categories: sensors data retrieving and sensors data processing. Use of beam theory to study sensors deformations gives strain information such as torsion. It also allows to develop reconstruction methods able to use these informations to gain accuracy. An optimization method of the sensors positions based on needle insertions experimental data is proposed. Sensors optimal positions make sensors data much more significant. A statistical processing of experimental data is performed to extract deformation features of needles in tissue. It is further used in a a specially built reconstruction method. Representativeness of these features improve the reconstrution of the deformed shape of the needle.
108

Optimization of the internal quantum efficiency of luminescent devices based on GaN and operating from the yellow to the red / Optimisation du rendement quantique des dispositifs luminescents à base de nitrures opérant du jaune au rouge

Ngo, Thi Huong 05 October 2017 (has links)
Ce travail de doctorat est dédié à l’étude des mécanismes régissant l’interaction lumière-matière dans des dispositifs optoélectroniques à base d’alliages (Al,Ga,In,)N. Diverses compositions de ces alliages sont assemblées en structures multicouches de matériaux d’épaisseurs nanométriques afin d’obtenir une émission à plus grande longueur d’onde que le bleu, couleur pour laquelle la technologie est mature depuis plus de vingt ans. Il s’agit de réaliser des émetteurs efficaces de lumière jaune, verte ou blanche (avec une approche alternative au pompage optique de luminophore par une diode bleue). Les solutions solides assemblées pour obtenir des émissions à grandes longueur d’onde sont à base de GaN et de Ga0.8In0.2N, matériaux pour lesquels les mailles cristallographiques sont désaccordées. Lorsqu’elles sont déposées sur un substrat ou un pseudo-substrat de GaN, matériau pour lequel les dopages n et p sont maitrisés et permettent l’injection électrique des porteurs, les tranches de Ga0.8In0.2N subissent de très fortes compressions dans leur plan de croissance et l’énergie élastique est relaxée par la formation de défauts délétères pour le rendement lumineux. Nous avons construit des hétéro-structures plus complexes en intercalant une couche complémentaire d’Al0.2Ga0.8N afin de réduire la densité d’énergie élastique globale. L’insertion de telles couches améliore la qualité cristalline et augmente leur rendement optique. Nous avons mesuré le rendement quantique interne en utilisant la spectroscopie de photoluminescence résolue en temps et une analyse des temps de déclins par une approche de type Lotka-Volterra des équations de recombinaison pour obtenir les taux de recombinaisons radiatifs et non-radiatifs. Nous avons montré quantitativement comment les champs électriques internes résultant du contraste de polarisation électrique aux interfaces et les recombinaisons non-radiatives de type Schockley-Read-Hall contribuent à définir le rendement quantique à faible densité d’excitations (optique ou électrique). L’objectif est l’obtention d’une émission spontanée intense pour une densité d’excitation modérée. Nous avons donc conduit une campagne d’expériences en variant l’intensité d’injection. Nous avons montré que l’effet Auger est le facteur dominant régissant la chute du rendement quantique interne sous fortes densités d’injection. Nous avons étudié diverses architectures à simple puits quantique ou à puits quantiques multiples émettant à des longueurs d’onde identiques pour quantifier l’influence spécifique de l’effet Stark confiné quantique. Nous avons corrélé l’apparition d’un seuil d’excitation au-delà duquel domine la recombinaison non-radiative de type Auger avec l’augmentation du temps de recombinaison radiative et de l’énergie de localisation des porteurs dans l’alliage inhomogène. Nous arrivons à la conclusion que la localisation des porteurs produite par le champ électrique aux interfaces et les fluctuations de la composition chimique de Ga0.8In0.2N contribuent de concert, facilitant l’interaction répulsive électron-électron et la recombinaison non-radiative Auger nnp. Nous avons montré que le modèle ABC permet de bien décrire la physique du phénomène si ses trois paramètres tiennent compte des effets d’écrantages sous injections modérées et des effets de remplissage de l’espace des phases sous fortes injections. Enfin, nous nous sommes écartés de l’étude des structures traditionnellement épitaxiées selon le plan polaire (0001) pour choisir des plans d’épitaxie semi-polaire (11-22). Dans ces conditions, il a été nécessaire de fabriquer des puits quantiques en Ga0.65In0.35N. Nous avons montré que la quasi-absence d’effet Stark confiné quantique augmente de manière très significative le seuil d’excitation au-delà duquel domine la recombinaison non-radiative de type Auger. Cette amélioration par rapport aux échantillons épitaxiés selon le plan (0001) est d’autant plus marquée que la longueur d’onde émise est grande. / Non renseigné
109

Adaptive word prediction and its application in an assistive communication system / Prédiction de mots adaptative pour l'aide à la communication pour personnes handicapées

Wandmacher, Tonio 22 October 2008 (has links)
Ce travail étudie les capacités de méthodes d’adaptation pour la prédiction de mots. Le premier groupe de méthodes traite de l’adaptation aux préférences lexicales et syntaxiques de l’utilisateur d’un système de communication assistée. Au sein de ce groupe de méthodes, nous avons étudié le modèle cache, le lexique auto-adaptatif et le modèle d’utilisateur dynamique (MUD), intégrant toute saisie de l’utilisateur. Le deuxième groupe de méthodes rassemble des approches qui ont pour objectif d’exploiter le contexte sémantique. Dans ce contexte, nous avons en particulier étudié l’Analyse Sémantique Latente (LSA), un modèle vectoriel qui se base sur les propriétés distributionnelles. Dans la dernière partie nous présentons un système d’aide à la communication, dans lequel nous avons implémenté les méthodes d’adaptation. Après une description de l’interface utilisateur nous avons exposé quelques expériences réalisées avec ce système, qui est utilisé dans un centre de rééducation fonctionnelle. / This thesis investigates the capacities of adaptive methods for word prediction. We present and evaluate several adaptation methods: First, we consider strategies enabling to adapt to the lexical and syntactic preferences of the user of an AAC system. Here we investigate the cache model, an auto-adaptive user lexicon and the dynamic user model (DUM), which integrates every input of the user. The second class of methods aims to adapt to the semantic context. Here we focus in particular on Latent Semantic Analysis (LSA), a vectorial model establishing semantic similarity from distributional properties. In the last part an assistive communication system is presented that implements the previously investigated adaptation methods. After a description of the user interface we report results from the application of this system in a rehabilitation center. / Die vorliegende Arbeit untersucht die Kapazitäten adaptiver Methoden für die Wortprädiktion, einer zentralen Strategie im Kontext der unterstützenden Kommunikation (UK) für sprach- und bewegungsbehinderte Menschen. Zunächst wird eine allgemeine Einführung in die Forschungsgebiete der UK einerseits und derWortprädiktion andererseits gegeben. Dabei wird insbesondere Bezug genommen auf stochastische Sprachmodelle, welche sich für die Prädiktion als sehr geeignet erwiesen haben. Die Untersuchung adaptiver Methoden erfolgt daraufhin entlang zweier Achsen: In einem ersten Abschnitt werden die Verfahren betrachtet, welche die Adaption an die spezifische Lexik und Syntax des Benutzers eines UK-Systems erlauben. Dabei werden insbesondere das sogenannte Cache-Modell, ein selbstlernendes Benutzerlexikon sowie das dynamische Benutzermodell (dynamic user model, DUM) diskutiert. Auf der zweiten Achse werden nun Modelle untersucht, welche auf eine Adaption der Wortprädiktion an den semantischen bzw. topikalischen Kontext abzielen. Hier rückt vor allem eine Methode in den Mittelpunkt: die Latent-Semantische Analyse (LSA), ein vektorraumbasiertes Verfahren, welches semantische Ähnlichkeit durch distributionelle Eigenschaften lexikalischer Einheiten etabliert. Als schwierig erweist sich jedoch die Integration der LSA-basierten semantischen Information in das allgemeine Prädiktionsmodell, weshalb hier verschiedene Integrationsmöglichkeiten untersucht werden. Im letzten Teil dieser Arbeit wird ein UK-System vorgestellt, welches die erfolgreichsten der zuvor betrachteten Adaptionsverfahren implementiert. Nach einer Präsentation der verschiedenen kommunikationsfördernden Komponenten wird von der Anwendung dieses Systems berichtet, welches seit mehreren Jahren in einem Rehabilitationszentrum eingesetzt wird.
110

Méthode SCHADEX de prédétermination des crues extrêmes : Méthodologie, applications, études de sensibilité / SCHADEX method of determination of extreme floods

Garavaglia, Federico 23 February 2011 (has links)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la « validation » de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa « état hydrique » du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire). / Since 2007, EDF (Électricité de France) design floods of dam spillways are computed using a probabilistic method named SCHADEX (Climatic-hydrological simulation of extreme foods). This method aims at estimating extreme flood quantiles by the combination of a weather patterns based rainfall probabilistic model and a conceptual rainfall-runoff model. The aim of this PhD thesis is to “validate” SCHADEX method by assessing its potential and its limits with a sensitivity analysis of its hypothesis and with a comparison to the widest possible range of data (various regions and climates, different watershed sizes). In the first part of this thesis we describe the stochastic generation process of rainfall events. We introduce a rainfall probabilistic model based on weather pattern classification, called MEWP (Multi-Exponential Weather Pattern) distribution. To validate the MEWP model, we compare it to the standard probabilistic models of extreme values theory. Basing on a wide rainfall dataset (478 raingauges located in France, Switzerland and Spain) and on new specific criteria, we evaluate the suitability of MEWP model in terms of reliability and robustness. In the second part of this work, the hydrological simulation process of volumes, called semi-continuous simulation process, is introduced. We highlight the efficiency and the originality of this process link to its ability to mix various hydrological data for extreme flood estimation while keeping parsimonious extrapolation hypothesis. Basing on a dataset of 32 watersheds, we realize a sensitivity analysis of this process to (i) simulation parameters (i.e. number of simulation, etc.), (ii) to rainfall probabilistic model and (iii) to rainfall-runoff model. This study allows us to fix some simulation parameters and especially to prioritize the simulation steps and options by their impact on final results. The third part is about the passage from extreme volumes quantiles to extreme peak flows quantiles that is done by a peak flows ratio. This ratio is computed on a hydrograms sample that is extract from flood time series by a specific peak over threshold sub-sampling developed in this thesis. Globally, we reformulate, justify and verify the basic assumptions of the method, with a special focus on rainfall risk, hydrological risk and semi-continuous simulation process. In order to make extreme flood estimations more reliable and robust same improvements and simplifications of the method are proposed. To widen the available period of the weather pattern classification from 1953-2005 to 1850-2003, we computed another weather pattern classification based on shade geopotential information. To take into account precipitation-temperature dependency, the simulation process is improved conditioning the generation of rainfall events by weather pattern sub-sampling. Certainly this thesis does not put the end to SCHADEX method developments but ground it on sound and documented basis. Such future investigations about variability of shape flood hydrograms, comparison of hydrological model in extrapolation domain, extreme flood risk estimation on ungauged watershed and in non-stationary context, are planned.

Page generated in 0.0793 seconds