• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Fiabilité des installations industrielles sous impact de fragments de structures - Effet domino / Reliability of industrial vessels under impact of structural fragments - Domino effect

Nguyen, Quoc Bao 20 May 2009 (has links)
La plupart des sites industriels abritent des équipements et des réservoirs sous pression. Pour des raisons diverses (suppression, impact mécanique, surchauffe ou autre), ils peuvent être endommagés et même éclater. Cette explosion peut engendrer de nombreux projectiles. Au cours de leur vol, ces derniers peuvent impacter d’autres équipements, tels que des réservoirs sous pression ou d’autres installations sensibles (poste de commande, par exemple). Si une des cibles impactées subit une ruine mécanique, elle peut exploser et générer une nouvelle série de projectiles. Ces projectiles menacent, à leur tour, d’autres installations et ainsi de suite. Ce type d’enchaînement accidentel catastrophique est connu sous le nom d’effet domino ou de suraccident. Dans ce document, l’effet domino pouvant se produire sur des sites industriels est analysé au travers des projections produites par l’accident initial. Une approche probabiliste globale est ainsi développée dans laquelle le calcul de la probabilité d’occurrence du phénomène requiert le passage par quatre étapes : - Analyse des termes sources : les projectiles générés par l’explosion d’un réservoir ont différentes caractéristiques, à savoir le nombre de projectiles, la forme, la masse, la vitesse de départ et les angles de départ. Toutes ces grandeurs sont modélisées par des variables aléatoires. A l’aide du principe du maximum d’entropie et des données existantes, des distributions probabilistes sont développées pour toutes ces variables. On se limite, cependant, au cas de l’explosion d’un réservoir cylindrique ou sphérique. – Analyse de l’impact ou analyse du mouvement : la trajectoire d’un projectile (ou fragment de structure), en fonction de ses caractéristiques de départ, est décrite par une combinaison des effets d’inertie, de gravitation et d’aérodynamique. Une approche simplifiée faisant l’hypothèse de constance des coefficients aérodynamiques permet d’identifier analytiquement la trajectoire du projectile tandis qu’une solution numérique est obtenue par une approche complète où toutes les valeurs de ces coefficients sont prises en compte.Les mouvements de translation et de rotation sont également étudiés. A l’aide de l’analyse complète et des conditions d’impact, la probabilité d’impact est déterminée. L’étude est restreinte à des projectiles en forme de fond de réservoir, fond oblong de réservoir et plaque. Les formes des cibles de l’étude sont restreintes au cas ellipsoïdal, cylindrique et cubique. – Analyse de l’état des cibles impactées : dans un premier temps, des modèles simplifiés d’impact sont utilisés afin d’étudier l’interaction mécanique entre les projectiles et les réservoirs impactés. Un modèle mécanique complet comprenant une loi de comportement élasto-plastique et un modèle de rupture est également proposé. Ce modèle est ensuite implémenté dans un code de calcul sans maillage de type SPH, i.e. Smoothed Particle Hydrodynamics. Afin d’estimer la probabilité de rupture des réservoirs impactés, les modèles simplifiés sont mis en œuvre, ce qui permet de réduire le coût de calcul. – Occurrence du sur-accident : selon l’état mécanique résiduel de la cible et son état physique (conditions thermodynamiques, niveau de remplissage, etc.), l’impact de projectiles peut conduire à la poursuite du pnénomène. Ce dernier point n’est pas traité dans le document présenté / Industrial facilities, such as vessels under pressure, might be damaged by explosions caused by an overpressure, an exterior mechanical impact or an overheating for instance. In general, such explosions generate many structural fragments. During their flight, these projectiles may impact other facilities, such as vessels under pressure, in the vicinity. Under given conditions of pressure and mechanical damage, these impacted targets may explode and generate other sets of structural fragments, and so on. This kind of scenario corresponds to the so-called domino effect. In this document, the domino effect caused by projections that may occur in the industrial sites is analyzed with a stochastic framework. For this purpose, a global methodology is developed. The determination of the occurrence probability of this effect requires four steps : - source terms analysis : the structural fragments generated by vessels explosions have different features, i.e. number of fragments, shape, mass, departure velocity and departure angles. These features are considered as random variables. Based on the maximum entropy principle and according to existing data, the probabilistic distributions are developed for each variable. This study focuses on the case of explosions in cylindrical or spherical vessels. – Fragments motion and impact analysis : according to the fragments features at their departure, the fragment trajectory is evaluated under the effects combined from the inertia, the gravitation and the aerodynamics. The simplified approach, under the hypothesis of constant aerodynamic coefficients, allows the analytical description of the trajectory whereas the numerical solutions are obtained for the complete approach when these coefficients vary. The translational as well as rotational movements are also considered. Monte Carlo simulations are performed in order to estimate the probability of impact. Three fragments shapes are considered : end-cap, oblong end-cap and plate. Three main shapes are investigated for the targets : ellipsoidal, cylindrical and cubic vessels. – Analysis of the mechanical behaviour of the impacted targets : simplified models are developed in order to study the mechanical interaction between the fragments and the impacted targets. A complete mechanical model, including elastic-plastic behaviour and a fissure model are also proposed. This model is then implemented in the mesh-free code (Smoothed Particles Hydrodynamics). In order to estimate the rupture probability of the impacted targets, the simplified models are used, reducing therefore the calculation duration. – Domino effect occurrence : according to its residual bearing capacity and its internal physical conditions, the impacted target may give rise to a new sequence of explosions and fragments generation. This last point is not studied in this document
152

Modèles de dynamique des populations dans un environnement aléatoire / Models of populations dynamic in a random environment

Ed-Darraz, Abdelkarim 20 November 2015 (has links)
Les travaux réalisés dans cette thèse abordent certaines questions relatives à la dynamique des populations dans un environnement aléatoire. L'environnement aléatoire est décrit par un processus Markovien à valeurs dans un espace fini et qui, en appliquant certaines forces sur le choix des taux vitaux, dirigera la dynamique de la population. Lorsque la dynamique est modélisée par un processus de naissance et de mort, on répondra à la question : quand est-ce qu'on a une extinction presque sûre d'une population ? (Bacaër and EdDarraz, 2014). Lorsque la dynamique est déterministe, nous avons démontré un résultat bien connu pour la taille finale d'une épidémie (Ed-Darraz and Khaladi, 2015) Bacaër N, Ed-Darraz A (2014) On linear birth-and-death processes in a random environment. J Math Biol. 69 (1) :73-90 Ed-Darraz A, Khaladi M (2015) On the final epidemic size in random environnement, Math. Biosc 266 : 10-14. / This thesis addresses some issues associated with population dynamics in random environment. Random environment is described by a Markov process with values in a finite space and which, involve certain forces on the choice of vital rates, will lead the population dynamics. When the dynamic is modeled by a birth and death process, we will answer the question : When almost surely extinction settled ? (Bacaër and Ed-Darraz, 2014). In (Ed-Darraz and Khaladi, 2015) we are interested to the final size of an epidemic in random environment. J Math Biol. 69 (1) :73-90 Ed-Darraz A, Khaladi M (2015) On the final epidemic size in random environnement, Math. Biosc 266 : 10-14.
153

Expérimental study of lean aeronautical ignition : impact of critical parameters on the mechanisms acting along the different ignition phases / Etude expérimentale de l’allumage pauvre aéronautique : impact des paramètres critiques sur les mécanismes présents dans chaque phase

Marrero Santiago, Javier 21 March 2018 (has links)
La certification des moteurs aéronautiques impose des fortes réductions des émissions polluantes. Une des solutions adoptées par les constructeurs est d'introduire la combustion pauvre dans les nouvelles chambres. Cette configuration pose des problèmes de stabilité de flamme et de ré-allumage en altitude. Le ré-allumage des moteurs doit être garanti et il y a une nécessité réelle de mieux comprendre les interactions complexes et multi-physiques guidant ce processus. Cette étude expérimentale vise les différentes phases de l'allumage aéronautique dans deux chambres swirlées, confinées diphasiques. Un foyer mono-injecteur permet d'analyser le développement du noyau de flamme dans ses premiers instants et de décrire comment les interactions avec l'écoulement local peuvent conduire à une réussite d'allumage ou à une ratée, via différents mécanismes. Une chambre multi-injecteur est dédiée à analyser la propagation de la flamme entre injecteurs pour différents espacements et carburants. / Jet engine certification undergoes more and more stringent controls that impose a strong reduction of pollutant emissions. As a response, designs move towards lean combustion, which raises difficulties relative to combustion stability and re-ignition capabilities in high altitude. The use of liquid fuels in real chambers introduces new variables into the ignition process, which involves complex simultaneous multi-physical interactions. The present experimental investigation addresses different phases of aeronautical ignition in two different confined, swirled, spray jet chambers. A single-injector facility is used to study the initial flame kernel development and interaction with the flow leading to successful ignition or misfire, following different mechanisms. A multi-injector facility enables the investigation of flame propagation between injectors, which is also governed by the local flow. Here, inter-injector distances are varied and fuels of different volatilities are tested.
154

Stochastic Geometry Analysis of LTE-A Cellular Networks / Analyse de réseaux cellulaires LTE-A : une approche fondée sur la géométrie stochastique

Guan, Peng 16 December 2015 (has links)
L’objectif principal de cette thèse est l’analyse des performances des réseaux LTE-A (Long Term Evolution- Advanced) au travers de la géométrie stochastique. L’analyse mathématique des réseaux cellulaires est un problème difficile, pour lesquels ils existent déjà un certain nombre de résultats mais qui demande encore des efforts et des contributions sur le long terme. L’utilisation de la géométrie aléatoire et des processus ponctuels de Poisson (PPP) s’est avérée être une approche permettant une modélisation pertinente des réseaux cellulaires et d’une complexité faible (tractable). Dans cette thèse, nous nous intéressons tout particulièrement à des modèles s’appuyant sur ces processus de Poisson : PPP-based abstraction. Nous développons un cadre mathématique qui permet le calcul de quantités reflétant les performances des réseaux LTE-A, tels que la probabilité d’erreur, la probabilité et le taux de couverture, pour plusieurs scénarios couvrant entre autres le sens montant et descendant. Nous considérons également des transmissions multi-antennes, des déploiements hétérogènes, et des systèmes de commande de puissance de la liaison montante. L’ensemble de ces propositions a été validé par un grand nombre de simulations. Le cadre mathématique développé dans cette thèse se veut général, et doit pouvoir s’appliquer à un nombre d’autres scénarios importants. L’intérêt de l’approche proposée est de permettre une évaluation des performances au travers de l’évaluation des formules, et permettent en conséquences d’éviter des simulations qui peuvent prendre énormément de temps en terme de développement ou d’exécution. / The main focus of this thesis is on performance analysis and system optimization of Long Term Evolution - Advanced (LTE-A) cellular networks by using stochastic geometry. Mathematical analysis of cellular networks is a long-lasting difficult problem. Modeling the network elements as points in a Poisson Point Process (PPP) has been proven to be a tractable yet accurate approach to the performance analysis in cellular networks, by leveraging the powerful mathematical tools such as stochastic geometry. In particular, relying on the PPP-based abstraction model, this thesis develops the mathematical frameworks to the computations of important performance measures such as error probability, coverage probability and average rate in several application scenarios in both uplink and downlink of LTE-A cellular networks, for example, multi-antenna transmissions, heterogeneous deployments, uplink power control schemes, etc. The mathematical frameworks developed in this thesis are general enough and the accuracy has been validated against extensive Monte Carlo simulations. Insights on performance trends and system optimization can be done by directly evaluating the formulas to avoid the time-consuming numerical simulations.
155

State estimation and trajectory planning using box particle kernels / Estimation d'état et planification de trajectoire par mixtures de noyaux bornés

Merlinge, Nicolas 29 October 2018 (has links)
L'autonomie d'un engin aérospatial requière de disposer d'une boucle de navigation-guidage-pilotage efficace et sûre. Cette boucle intègre des filtres estimateurs et des lois de commande qui doivent dans certains cas s'accommoder de non-linéarités sévères et être capables d'exploiter des mesures ambiguës. De nombreuses approches ont été développées à cet effet et parmi celles-ci, les approches particulaires présentent l'avantage de pouvoir traiter de façon unifiée des problèmes dans lesquels les incertitudes d’évolution du système et d’observation peuvent être soumises à des lois statistiques quelconques. Cependant, ces approches ne sont pas exemptes de défauts dont le plus important est celui du coût de calcul élevé. D'autre part, dans certains cas, ces méthodes ne permettent pas non plus de converger vers une solution acceptable. Des adaptations récentes de ces approches, combinant les avantages du particulaire tel que la possibilité d'extraire la recherche d'une solution d'un domaine local de description et la robustesse des approches ensemblistes, ont été à l'origine du travail présenté dans cette thèse.Cette thèse présente le développement d’un algorithme d’estimation d’état, nommé le Box Regularised Particle Filter (BRPF), ainsi qu’un algorithme de commande, le Box Particle Control (BPC). Ces algorithmes se basent tous deux sur l’utilisation de mixtures de noyaux bornés par des boites (i.e., des vecteurs d’intervalles) pour décrire l’état du système sous la forme d’une densité de probabilité multimodale. Cette modélisation permet un meilleur recouvrement de l'espace d'état et apporte une meilleure cohérence entre la prédite et la vraisemblance. L’hypothèse est faite que les incertitudes incriminées sont bornées. L'exemple d'application choisi est la navigation par corrélation de terrain qui constitue une application exigeante en termes d'estimation d'état.Pour traiter des problèmes d’estimation ambiguë, c’est-à-dire lorsqu’une valeur de mesure peut correspondre à plusieurs valeurs possibles de l’état, le Box Regularised Particle Filter (BRPF) est introduit. Le BRPF est une évolution de l’algorithme de Box Particle Filter (BPF) et est doté d’une étape de ré-échantillonnage garantie et d’une stratégie de lissage par noyau (Kernel Regularisation). Le BRPF assure théoriquement une meilleure estimation que le BPF en termes de Mean Integrated Square Error (MISE). L’algorithme permet une réduction significative du coût de calcul par rapport aux approches précédentes (BPF, PF). Le BRPF est également étudié dans le cadre d’une intégration dans des architectures fédérées et distribuées, ce qui démontre son efficacité dans des cas multi-capteurs et multi-agents.Un autre aspect de la boucle de navigation–guidage-pilotage est le guidage qui nécessite de planifier la future trajectoire du système. Pour tenir compte de l'incertitude sur l'état et des contraintes potentielles de façon versatile, une approche nommé Box Particle Control (BPC) est introduite. Comme pour le BRPF, le BPC se base sur des mixtures de noyaux bornés par des boites et consiste en la propagation de la densité d’état sur une trajectoire jusqu’à un certain horizon de prédiction. Ceci permet d’estimer la probabilité de satisfaire les contraintes d’état au cours de la trajectoire et de déterminer la séquence de futures commandes qui maintient cette probabilité au-delà d’un certain seuil, tout en minimisant un coût. Le BPC permet de réduire significativement la charge de calcul. / State estimation and trajectory planning are two crucial functions for autonomous systems, and in particular for aerospace vehicles.Particle filters and sample-based trajectory planning have been widely considered to tackle non-linearities and non-Gaussian uncertainties.However, these approaches may produce erratic results due to the sampled approximation of the state density.In addition, they have a high computational cost which limits their practical interest.This thesis investigates the use of box kernel mixtures to describe multimodal probability density functions.A box kernel mixture is a weighted sum of basic functions (e.g., uniform kernels) that integrate to unity and whose supports are bounded by boxes, i.e., vectors of intervals.This modelling yields a more extensive description of the state density while requiring a lower computational load.New algorithms are developed, based on a derivation of the Box Particle Filter (BPF) for state estimation, and of a particle based chance constrained optimisation (Particle Control) for trajectory planning under uncertainty.In order to tackle ambiguous state estimation problems, a Box Regularised Particle Filter (BRPF) is introduced.The BRPF consists of an improved BPF with a guaranteed resampling step and a smoothing strategy based on kernel regularisation.The proposed strategy is theoretically proved to outperform the original BPF in terms of Mean Integrated Square Error (MISE), and empirically shown to reduce the Root Mean Square Error (RMSE) of estimation.BRPF reduces the computation load in a significant way and is robust to measurement ambiguity.BRPF is also integrated to federated and distributed architectures to demonstrate its efficiency in multi-sensors and multi-agents systems.In order to tackle constrained trajectory planning under non-Gaussian uncertainty, a Box Particle Control (BPC) is introduced.BPC relies on an interval bounded kernel mixture state density description, and consists of propagating the state density along a state trajectory at a given horizon.It yields a more accurate description of the state uncertainty than previous particle based algorithms.A chance constrained optimisation is performed, which consists of finding the sequence of future control inputs that minimises a cost function while ensuring that the probability of constraint violation (failure probability) remains below a given threshold.For similar performance, BPC yields a significant computation load reduction with respect to previous approaches.
156

Topologie et dimensionnement d'un réseau ad hoc maritime couplé avec un réseau satellitaire / Topology and dimensioning of a maritime MANET coupled with a satellite network

Kessab, Achraf 03 February 2017 (has links)
Afin de garantir un MANET totalement connecté, nous proposons un outil analytique permettant d´estimer les rayons de couverture requis. Ensuite, nous étudions les communications multi-sauts et nous proposons plusieurs protocoles de routage pour améliorer les délais de communications. Puis, nous nous focalisons sur la contribution du réseau satellite en menant une étude comparative qualifiant les besoins en stations hybrides "HS" ainsi qu’une stratégie d´accès à ces passerelles satellite. Dans un deuxième temps, nous traitons l’ occurrence du dépassement des ressources radio et le dimensionnement de ces dernières de façon à optimiser la bande passante allouée au réseau. Nous dérivons un modèle analytique en utilisant des résultats issus de la géométrie aléatoire, permettant de prévoir la quantité de ressources radio requises par les noeuds actifs sous une certaine qualité de service "QoS" et plusieurs configurations d´antennes MIMO. Nous considérons tout d´abord un système d´accès centralisé où toutes les communications sont effectuées par l’ intermédiaire des noeuds chargés de la gestion des ressources radio. Ensuite, nous traitons le cas d´un système d´accès distribué sous le protocole d´accès Aloha où les nœuds sont autorisés à accéder à la bande passante partagée aléatoirement et uniformément. Les simulations et les résultats numériques permettent d´évaluer les performances en termes de bande passante requise, de capacité globale et de rayons de couverture. / In the first part of this thesis, we tackle the initialization of the network in this hierarchical context. We propose a statistical model enabling a network designer to perceive the requirements in terms of equipments, channel bandwidth, antenna configurations, antenna radiation pattern, achievable data rates for instance. In order to guarantee fully connected MANET, we introduce an analytical tool to estimate the required inter-staff-ships and inter-shipmasters coverage radii. Then we study the multi-hop end-to-end communications and we propose several routing protocols to enhance the delays. Afterwards, we focus on the contribution of the satellite backhaul with a comparative study qualifying the needs in Hybrid Stations “HSs” and a strategy to access to these gateways. In a second part, we emphasis on the radio resource outage occurrence and the dimensioning matter to optimize the allocated bandwidth to the network. We investigate stochastic geometry tools to provide an analytical model enabling to foresee the amount of required radio resources by the active nodes with a certain Quality of Service “QoS” and several Multiple Inputs Multiple Outputs “MIMO” antenna configurations in the maritime context. We consider first the centralized access scheme where all communications are performed via the shipmasters that are in charge of the radio resource management. Then we focus on the distributed access scheme with Aloha Medium Access Control “MAC” protocol where nodes are authorized to access to the shared bandwidth arbitrarily and unilaterally. Simulation and numerical results are provided to evaluate the performances in terms of required bandwidth, aggregate capacity.
157

Hemispheric differences in preparatory attention : a divided visual field study / Différences hémisphériques de l’attention préparatoire : une étude en champ visuel divisé

Fernandez, Laura Gabriela 27 September 2013 (has links)
Un aspect fondamental du contrôle attentionnel réside dans la capacité du sujet à anticiper l’apparition d’un stimulus afin de rendre son traitement plus rapide et plus efficace. L'attention préparatoire (AP) est la capacité de moduler (rehausser) l’intensité de l’attention dirigée vers un stimulus sélectionné avant son apparition, en empêchant que le sujet soit distrait par une information non pertinente. Certaines études soutiennent que l’AP est latéralisée dans l’hémisphère droit (HD) alors que d’autres suggèrent que les deux hémisphères, l’hémisphère gauche (HG) et l’HD, sont impliqués dans la modulation de l’AP. L’objectif de cette thèse est d’analyser le rôle joué par chaque hémisphère cérébral dans la modulation de l’AP dirigée vers une localisation de l’espace. Nous avons développé une version latéralisée du test APT (pour Attentional Preparatory Test, proposé par LaBerge, Auclair & Siéroff, 2000), le LAPT (Lateralized Attentional Preparatory Test). L’APT permet de mesurer la capacité des sujets à moduler leur AP vers la localisation d’une cible lorsque la probabilité d'un distracteur varie selon plusieurs blocs d’essais. Dans l’APT, le temps de réponse augmentait lorsque la probabilité d’apparition d’un distracteur dans la phase préparatoire antérieure à la présentation de la cible augmentait, ce qui montre que l’AP est modulée par des évènements antérieurs au traitement de la cible. Nous avons créé le LAPT en utilisant la méthode de présentation en champ visuel divisé dans laquelle les stimuli peuvent apparaître dans le champ visuel gauche (CVG) ou dans le champ visuel droit (CVD). Les différences de performances entre champs visuels nous donnent des indications sur les stratégies de traitement des deux hémisphères (CVD/HG vs CVG/HD). Dans une série d’études, nous avons montré que la modulation de l’AP en fonction de la probabilité attendue d’un événement diffère dans chaque champ visuel/hémisphère en fonction de la configuration de la tâche. Dans le CVD/HG, l’AP est modulée par la probabilité des événements distracteurs, surtout quand cette probabilité est explicite. De plus, l’HG semble tenir un rôle crucial dans la modulation de l’AP quand la cible et le distracteur sont difficiles à discriminer. Dans le CVG/HD, l’AP est modulée par la probabilité temporelle des événements et dépendrait du délai le plus probable dans lequel la cible est attendue, mais seulement lorsque la discrimination entre la cible et le distracteur est plus facile. Enfin, nos résultats suggèrent que les différences entre le CVD/LH et le CVG/RH lors de cette modulation attentionnelle se mettent en place à un niveau perceptif du traitement de l’information car ils sont indépendants de la main utilisée pour répondre et donc des processus requis au niveau de la programmation motrice. L’ensemble de ces résultats suggère que chaque hémisphère utilise une stratégie différente pour moduler l’AP lorsqu’elle est dirigée vers une localisation de l’espace. / A crucial aspect of attentional control is the capacity of anticipating a stimulus appearance in order to improve the speed and effectiveness of its subsequent processing. Preparatory attention (PA) is the ability to modulate (enhance) the intensity of attention directed to a selected stimulus prior to its occurrence, preventing subjects from being distracted by interfering stimuli. Some studies propose that PA is lateralized to the right hemisphere (RH) while others suggest that both the left hemisphere (LH) and the RH participate in the modulation of PA. The aim of the present thesis was to examine the role of each brain hemisphere in the modulation of PA directed to a spatial location. We developed a lateralized version of the Attentional Preparatory Test, (APT, proposed par LaBerge, Auclair & Siéroff, 2000), named the Lateralized APT or LAPT. The APT measures the ability of subjects to modulate PA directed to a target location when the probability of a distractor occurrence varies across several blocks of trials. In the APT, the response times increased as the probability of a distractor appearing in the preparatory phase preceding the target presentation increased, showing that PA is modulated by the events occurring prior to the target appearance. We developed the LAPT using the divided visual field paradigm in which stimuli can occur in the left (LVF) or the right (RVF) visual fields. The visual field differences in subjects’ performance are assumed to reflect differences in the processing strategies of both hemispheres (RVF/LH vs LVF/RH). In a series of studies we showed that the modulation of PA by the expected probability of events was different in each visual field/hemisphere, depending on task configuration. In the RVF/LH, PA is modulated by the expected probability of distractor events, especially when this probability is explicit. In addition, the LH seems to play a crucial role in modulating PA when the target and the distractor are hard to discriminate. In the LVF/RH, PA is modulated by the temporal probability of events and may depend on the most probable delay in which the target is expected, but only when the discrimination between the target and the distractor is easy. Most importantly, our findings suggest that the differences between RVF/LH and LVF/RH in the modulation of PA take place at the perceptual level of processing because they are independent of the hand use in executing the response, thus also independent of the processes taking place at the motor programming level. Taken together our results, they suggest that each hemisphere uses a different strategy to modulate PA when directed to a spatial location.
158

Risque et optimisation pour le management d'énergies : application à l'hydraulique / Risk and optimization for power management : application to hydropower planning

Alais, Jean-Christophe 16 December 2013 (has links)
L'hydraulique est la principale énergie renouvelable produite en France. Elle apporte une réserve d'énergie et une flexibilité intéressantes dans un contexte d'augmentation de la part des énergies intermittentes dans la production. Sa gestion soulève des problèmes difficiles dus au nombre des barrages, aux incertitudes sur les apports d'eau et sur les prix, ainsi qu'aux usages multiples de l'eau. Cette thèse CIFRE, effectuée en partenariat avec Electricité de France, aborde deux questions de gestion hydraulique formulées comme des problèmes d'optimisation dynamique stochastique. Elles sont traitées dans deux grandes parties.Dans la première partie, nous considérons la gestion de la production hydroélectrique d'un barrage soumise à une contrainte dite de cote touristique. Cette contrainte vise à assurer une hauteur de remplissage du réservoir suffisamment élevée durant l'été avec un niveau de probabilité donné. Nous proposons différentes modélisations originales de ce problème et nous développons les algorithmes de résolution correspondants. Nous présentons des résultats numériques qui éclairent différentes facettes du problème utiles pour les gestionnaires du barrage.Dans la seconde partie, nous nous penchons sur la gestion d'une cascade de barrages. Nous présentons une méthode de résolution approchée par décomposition-coordination, l'algorithme Dual Approximate Dynamic Programming (DADP). Nousmontrons comment décomposer, barrage par barrage, le problème de la cascade en sous-problèmes obtenus en dualisant la contrainte de couplage spatial ``déversé supérieur = apport inférieur''. Sur un cas à trois barrages, nous sommes en mesure de comparer les résultats de DADP à la solution exacte (obtenue par programmation dynamique), obtenant desgains à quelques pourcents de l'optimum avec des temps de calcul intéressants. Les conclusions auxquelles nous sommes parvenu offrent des perspectives encourageantes pour l'optimisation stochastique de systèmes de grande taille / Hydropower is the main renewable energy produced in France. It brings both an energy reserve and a flexibility, of great interest in a contextof penetration of intermittent sources in the production of electricity. Its management raises difficulties stemming from the number of dams, from uncertainties in water inflows and prices and from multiple uses of water. This Phd thesis has been realized in partnership with Electricité de France and addresses two hydropower management issues, modeled as stochastic dynamic optimization problems. The manuscript is divided in two parts. In the first part, we consider the management of a hydroelectric dam subject to a so-called tourist constraint. This constraint assures the respect of a given minimum dam stock level in Summer months with a prescribed probability level. We propose different original modelings and we provide corresponding numerical algorithms. We present numerical results that highlight the problem under various angles useful for dam managers. In the second part, we focus on the management of a cascade of dams. We present the approximate decomposition-coordination algorithm called Dual Approximate Dynamic Programming (DADP). We show how to decompose an original (large scale) problem into smaller subproblems by dualizing the spatial coupling constraints. On a three dams instance, we are able to compare the results of DADP with the exact solution (obtained by dynamic programming); we obtain approximate gains that are only at a few percents of the optimum, with interesting running times. The conclusions we arrived at offer encouraging perspectives for the stochastic optimization of large scale problems
159

Numerical methods for hybrid control and chance-constrained optimization problems / Méthodes numériques pour problèmes d'optimisation de contrôle hybride et avec contraintes en probabilité

Sassi, Achille 27 January 2017 (has links)
Cette thèse est dediée à l'alanyse numérique de méthodes numériques dans le domaine du contrôle optimal, et est composée de deux parties. La première partie est consacrée à des nouveaux résultats concernant des méthodes numériques pour le contrôle optimal de systèmes hybrides, qui peuvent être contrôlés simultanément par des fonctions mesurables et des sauts discontinus dans la variable d'état. La deuxième partie est dédiée è l'étude d'une application spécifique surl'optimisation de trajectoires pour des lanceurs spatiaux avec contraintes en probabilité. Ici, on utilise des méthodes d'optimisation nonlineaires couplées avec des techniques de statistique non parametrique. Le problème traité dans cette partie appartient à la famille des problèmes d'optimisation stochastique et il comporte la minimisation d'une fonction de coût en présence d'une contrainte qui doit être satisfaite dans les limites d'un seuil de probabilité souhaité. / This thesis is devoted to the analysis of numerical methods in the field of optimal control, and it is composed of two parts. The first part is dedicated to new results on the subject of numerical methods for the optimal control of hybrid systems, controlled by measurable functions and discontinuous jumps in the state variable simultaneously. The second part focuses on a particular application of trajectory optimization problems for space launchers. Here we use some nonlinear optimization methods combined with non-parametric statistics techniques. This kind of problems belongs to the family of stochastic optimization problems and it features the minimization of a cost function in the presence of a constraint which needs to be satisfied within a desired probability threshold.
160

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Page generated in 0.0563 seconds