• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 245
  • 80
  • 40
  • 1
  • 1
  • Tagged with
  • 367
  • 120
  • 81
  • 69
  • 48
  • 46
  • 39
  • 39
  • 38
  • 35
  • 34
  • 34
  • 33
  • 32
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Estimation des niveaux marins extrêmes avec et sans l’action des vagues le long du littoral métropolitain / Estimation of extreme marine sea levels with and without wave component along the French coasts

Kergadallan, Xavier 01 October 2015 (has links)
Pour caractériser le risque de submersion marine, il est très important d'avoir une connaissance précise des lois de distribution des niveaux d'eau marins, et plus particulièrement des niveaux d'eau extrêmes. En effet ce sont eux qui sont à l'origine des conséquences les plus dramatiques. Le programme de recherche mené au cours de cette thèse a été financé par le Ministère de l'Écologie, du Développement Durable et de l'Énergie. L'objectif final est de fournir des valeurs de référence de niveau d'eau marin le long des côtes françaises, par le biais d'une méthode d'analyse statistique des extrêmes. Ces niveaux comprennent les trois composantes suivantes : la marée, la surcote météorologique et le wave set-up. Le principe de base utilisé est le suivant : une analyse statistique est effectuée aux ports où la donnée marégraphique est disponible, puis le résultat est interpolé entre les ports. Différentes approches sont testées. Les points suivants sont en particulier étudiés :- la dépendance marée surcote, avec deux différents types de dépendance, une dépendance temporelle et une dépendance en amplitude ;- la méthode d'interpolation, avec la comparaison d'une analyse site-par-site (ASS) avec une analyse régionale (RFA), et celle d'interpolations 1D et 2D ;- l'estimation du wave set-up, basée sur l'état de l'art des formules paramétriques ;- la dépendance surcote vagues, avec des lois bi-variées de valeurs extrêmes. Le résultat final se présente sous la forme de deux profils de niveau d'eau de période de retour 100 ans : le premier sans l'action des vagues (marée et surcote météorologique) et le deuxième avec l'action des vagues. Les valeurs les plus élevées sont atteintes, pour le littoral de la Mer du Nord, la Manche et l'Atlantique, en Baie du Mont-Saint-Michel (à cause des conditions de marée), et pour le littoral méditerranéen au niveau de Marseille. L'analyse montre que la modélisation de la dépendance temporelle marée surcote n'influe pas significativement sur les estimations des valeurs extrêmes. Par contre la modélisation de la dépendance en amplitude donne des résultats intéressants pour certains ports. En comparaison avec l'ASS, la RFA tend à lisser les résultats. Les estimations issues de la RFA sont supérieures pour le littoral méditerranéen, et équivalentes pour le littoral de Mer du Nord, Manche et Atlantique. La RFA serait recommandée pour l'estimation des niveaux de retour en dehors du domaine de validité de l'ASS.À cause du petit nombre de sites d'observation, il est préféré une interpolation 1D le long du trait de côte lissé. Le wave set-up est calculé par la formule de Dean et Walton [2009].La dépendance surcote vagues est moyenne le long du littoral méditerranéen. Le facteur de dépendance montre des variations plus importantes le long du littoral de Mer du Nord, Manche et Atlantique, avec un maximum observé en Baie de Seine et des minima en Baie de Mont-Saint-Michel et au niveau de Calais. Des suggestions sont faites pour améliorer les méthodologies développées et appliquées dans le cadre d'un futur travail / Accurate knowledge of the statistical distribution of extreme sea levels is of the utmost importance for the characterization of flood risks in coastal areas, with a particular interest devoted to extreme water levels because they may induce the most dramatic consequences. Research was funded by the French Ministry of Ecology, Sustainable Development and Energy to identify the risk of flooding from the sea in France. The aim is to provide values on design levels along the French coasts by a statistical method of extreme value analysis. These levels must include the effect of the three following components: tide, meteorological surge and wave set-up. The principle is as follows: an analysis is carried out at the harbours, where seal level observations are available, then the result is interpolated between the harbours. Different approaches are tested. In particularly, the following specific items are studied:- the tide surge dependence, with two different types of dependence: a temporal dependence and an amplitude dependence;- the interpolation method: with the comparison of a site-by-site analysis (SSA) with a Regional Frequency Analysis (RFA), and a 1-D with a 2-D interpolation;- the estimation of the wave set-up, based on the state of art of parametric formula;- the surge wave dependence, with the bivariate laws of extreme values. The final result is two profiles of the 100-year water level: one for the still water level (tide and meteorological surge), and the other for the sea level with the wave set-up. The highest sea levels are located, for the English Channel and Atlantic coasts at the Saint-Michel-bay (because of the tide), and for the Mediterranean coast around Marseille. The analysis shows that the temporal tide surge dependence has no effect on the estimation of the sea level extreme values. In contrast, the model of the amplitude tide surge dependence shows some interesting results for few harbours. In comparison with the SSA, the RFA tends to smooth the result. RFA estimates are higher along the Mediterranean coast, and similarly along the English Channel and Atlantic coasts. RFA would be recommended for estimating return levels out of the SSA validity domain. Because of the small number of observation sites, a 1-D interpolation, along a smoothed coastline, is preferred. The wave set-up is calculated with the formula of Dean and Walton [2009].The surge wave dependence is medium along the Mediterranean coast. Variations of the dependence factor are more important along the English Channel and the Atlantic coasts, with a maximum at the bay of the Seine and some minima at the bay of Saint-Michel and Calais. Some ideas are provided to perform the methodology for further work
302

La politique énergétique extérieure de l'Union Européenne et le droit / The European Union's external energy policy and the law

Pradel, Nicolas 16 November 2015 (has links)
Depuis 2006, la politique énergétique extérieure de l’Union européenne a été significativement renforcée. Cette politique très ambitieuse vise à assurer la sécurité des approvisionnements énergétiques dans l’Union et à contribuer à une utilisation plus durable de l’énergie à l’échelle universelle. Si le dialogue politique et les aides économiques sont essentiels à ces égards, l’Union fait principalement appel au droit pour libéraliser les marchés énergétiques des États tiers se trouvant à sa périphérie et pour diffuser sa vision de l’utilisation durable de l’énergie sur la scène internationale. Pour quelles raisons l’Union a-t-elle essentiellement recours au droit dans le cadre de cette politique ? S’agit-il d’un instrument efficace ? C’est à ces deux grandes questions que cette étude est consacrée / Since 2006, the European Union’s external energy policy has been strengthening significantly. This ambitious EU policy is aimed at ensuring the security of energy supply in the EU and to contribute to more sustainable use of energy around the world. If political dialogue and economic aid are essential, the EU resorts principally to the law in order to liberalise energy markets of the third States in its periphery and to spread its vision of sustainable energy on the international stage. For which reasons does the EU use primarily the law in this policy? Is this instrument efficient? It is these two majors questions that this study addresses
303

Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien / Contributions to multilevel splitting for rare events, and applications to air traffic

Jacquemart, Damien 08 December 2014 (has links)
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative. / The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error.
304

Variants of Deterministic and Stochastic Nonlinear Optimization Problems / Variantes de problèmes d'optimisation non linéaire déterministes et stochastiques

Wang, Chen 31 October 2014 (has links)
Les problèmes d’optimisation combinatoire sont généralement réputés NP-difficiles, donc il n’y a pas d’algorithmes efficaces pour les résoudre. Afin de trouver des solutions optimales locales ou réalisables, on utilise souvent des heuristiques ou des algorithmes approchés. Les dernières décennies ont vu naitre des méthodes approchées connues sous le nom de métaheuristiques, et qui permettent de trouver une solution approchées. Cette thèse propose de résoudre des problèmes d’optimisation déterministe et stochastique à l’aide de métaheuristiques. Nous avons particulièrement étudié la méthode de voisinage variable connue sous le nom de VNS. Nous avons choisi cet algorithme pour résoudre nos problèmes d’optimisation dans la mesure où VNS permet de trouver des solutions de bonne qualité dans un temps CPU raisonnable. Le premier problème que nous avons étudié dans le cadre de cette thèse est le problème déterministe de largeur de bande de matrices creuses. Il s’agit d’un problème combinatoire difficile, notre VNS a permis de trouver des solutions comparables à celles de la littérature en termes de qualité des résultats mais avec temps de calcul plus compétitif. Nous nous sommes intéressés dans un deuxième temps aux problèmes de réseaux mobiles appelés OFDMA-TDMA. Nous avons étudié le problème d’affectation de ressources dans ce type de réseaux, nous avons proposé deux modèles : Le premier modèle est un modèle déterministe qui permet de maximiser la bande passante du canal pour un réseau OFDMA à débit monodirectionnel appelé Uplink sous contraintes d’énergie utilisée par les utilisateurs et des contraintes d’affectation de porteuses. Pour ce problème, VNS donne de très bons résultats et des bornes de bonne qualité. Le deuxième modèle est un problème stochastique de réseaux OFDMA d’affectation de ressources multi-cellules. Pour résoudre ce problème, on utilise le problème déterministe équivalent auquel on applique la méthode VNS qui dans ce cas permet de trouver des solutions avec un saut de dualité très faible. Les problèmes d’allocation de ressources aussi bien dans les réseaux OFDMA ou dans d’autres domaines peuvent aussi être modélisés sous forme de problèmes d’optimisation bi-niveaux appelés aussi problèmes d’optimisation hiérarchique. Le dernier problème étudié dans le cadre de cette thèse porte sur les problèmes bi-niveaux stochastiques. Pour résoudre le problème lié à l’incertitude dans ce problème, nous avons utilisé l’optimisation robuste plus précisément l’approche appelée « distributionnellement robuste ». Cette approche donne de très bons résultats légèrement conservateurs notamment lorsque le nombre de variables du leader est très supérieur à celui du suiveur. Nos expérimentations ont confirmé l’efficacité de nos méthodes pour l’ensemble des problèmes étudiés. / Combinatorial optimization problems are generally NP-hard problems, so they can only rely on heuristic or approximation algorithms to find a local optimum or a feasible solution. During the last decades, more general solving techniques have been proposed, namely metaheuristics which can be applied to many types of combinatorial optimization problems. This PhD thesis proposed to solve the deterministic and stochastic optimization problems with metaheuristics. We studied especially Variable Neighborhood Search (VNS) and choose this algorithm to solve our optimization problems since it is able to find satisfying approximated optimal solutions within a reasonable computation time. Our thesis starts with a relatively simple deterministic combinatorial optimization problem: Bandwidth Minimization Problem. The proposed VNS procedure offers an advantage in terms of CPU time compared to the literature. Then, we focus on resource allocation problems in OFDMA systems, and present two models. The first model aims at maximizing the total bandwidth channel capacity of an uplink OFDMA-TDMA network subject to user power and subcarrier assignment constraints while simultaneously scheduling users in time. For this problem, VNS gives tight bounds. The second model is stochastic resource allocation model for uplink wireless multi-cell OFDMA Networks. After transforming the original model into a deterministic one, the proposed VNS is applied on the deterministic model, and find near optimal solutions. Subsequently, several problems either in OFDMA systems or in many other topics in resource allocation can be modeled as hierarchy problems, e.g., bi-level optimization problems. Thus, we also study stochastic bi-level optimization problems, and use robust optimization framework to deal with uncertainty. The distributionally robust approach can obtain slight conservative solutions when the number of binary variables in the upper level is larger than the number of variables in the lower level. Our numerical results for all the problems studied in this thesis show the performance of our approaches.
305

Etude des propriétés électroniques du graphène et des matériaux à base de graphène sous champs magnétiques intenses / Electronics properties of graphene and graphene-based systems under pulsed magnetic field

Poumirol, Jean-Marie 22 July 2011 (has links)
Cette thèse présente des mesures de transport électronique dans des systèmes bi-dimensionels et uni-dimensionels à base de graphène sous champ magnétique pulsé (60T). L'objectif de ces travaux consiste à sonder la dynamique des porteurs de charge en modifiant la densité d'états du système par l'application d'un champ magnétique. Une première partie est consacrée à l'étude de l'influence des îlots électrons-trous sur les propriétés de transport du graphène au voisinage du point de neutralité de charge. Nous avons constaté l'apparition de fluctuations de la magnéto-résistance liée à la transition progressive des îlots de taille finie dans le régime quantique lorsque le champ magnétique augmente. Nous avons aussi montré que la variation de l'énergie de Fermi, liée à l'augmentation de la dégénérescence orbitale des niveaux de Landau, est directement responsable d'une modification du ratio entre électrons et trous. Dans une deuxième partie consacrée à l'étude des nanorubans de graphène, nous avons exploré deux gammes de largeur différentes. Dans les rubans larges (W>60nm), la quantification de la résistance a été observée révélant ainsi une signature évidente de la quantification du spectre énergétique en niveaux de Landau. Le confinement magnétique des porteurs de charge sur les bords des nanorubans a permis de mettre en évidence, pour la première fois, la levée de dégénérescence de vallée liée à la configuration armchair du ruban. Pour des rubans plus étroits (W<30nm), en présence de défauts de bord et d'impuretés chargées, la formation progressive des états de bords chiraux donne lieu à une magnéto-conductance positive quelque soit la densité de porteurs. Enfin, la dernière partie traite du magnéto-transport dans le graphene multi-feuillet. En particulier, nous avons observé l'effet Hall quantique dans les systèmes tri-couche de graphène. Une étude comparative des résultats expérimentaux avec des simulations numériques a permis de déterminer l'empilement rhombohedral des trois couches de graphene constituant l'échantillon / This thesis presents transport measurements on two-dimensional and one-dimensional graphene-based systems under pulsed magnetic field (60T). The objective of this work is to probe the dynamics of charge carriers by changing the density of states of the system by applying a strong magnetic field. The first part is devoted to the study of the influence of electron-hole pockets on the transport properties of graphene near the charge neutrality point. We found the appearance of fluctuations in the magneto-resistance due to the progressive transition of the electron/hole puddles of finite size in the quantum regime as the magnetic field increases. We have also shown that the variation of the Fermi energy, due to the increase of orbital Landau level degeneracy, is directly responsible of a change in the electron and hole ratio. The second part is devoted to the study of graphene nano-ribbons, we explored two different ranges of width. In the broad nano-ribbons of width W larger than 60 nm, the quantification of the resistance is observed, revealing a clear signature of the quantization of the energy spectrum into Landau levels. We show for the first time the effect of valley degeneracy lifting induced by the magnetic confinement of charge carriers at the edges of the armchair nano-ribbons. For narrower nano-ribbons (W <30 nm) in presence of edge defects and charged impurities, the progressive formation of chiral edge states leads to a positive magneto-conductance whatever the carrier density. Finally, the last part of this thesis deals with magneto-transport fingerprints in multi-layer graphene as we observed the quantum Hall effect in tri-layer graphene. A comparative study of the experimental results with numerical simulations was used to determine the rhombohedral stacking of three layers of graphene in the sample
306

Rare event simulation for statistical model checking / Simulation d'événements rares pour le model checking statistique

Jegourel, Cyrille 19 November 2014 (has links)
Dans cette thèse, nous considérons deux problèmes auxquels le model checking statistique doit faire face. Le premier concerne les systèmes hétérogènes qui introduisent complexité et non-déterminisme dans l'analyse. Le second problème est celui des propriétés rares, difficiles à observer et donc à quantifier. Pour le premier point, nous présentons des contributions originales pour le formalisme des systèmes composites dans le langage BIP. Nous en proposons une extension stochastique, SBIP, qui permet le recours à l'abstraction stochastique de composants et d'éliminer le non-déterminisme. Ce double effet a pour avantage de réduire la taille du système initial en le remplaçant par un système dont la sémantique est purement stochastique sur lequel les algorithmes de model checking statistique sont définis. La deuxième partie de cette thèse est consacrée à la vérification de propriétés rares. Nous avons proposé le recours à un algorithme original d'échantillonnage préférentiel pour les modèles dont le comportement est décrit à travers un ensemble de commandes. Nous avons également introduit les méthodes multi-niveaux pour la vérification de propriétés rares et nous avons justifié et mis en place l'utilisation d'un algorithme multi-niveau optimal. Ces deux méthodes poursuivent le même objectif de réduire la variance de l'estimateur et le nombre de simulations. Néanmoins, elles sont fondamentalement différentes, la première attaquant le problème au travers du modèle et la seconde au travers des propriétés. / In this thesis, we consider two problems that statistical model checking must cope. The first problem concerns heterogeneous systems, that naturally introduce complexity and non-determinism into the analysis. The second problem concerns rare properties, difficult to observe, and so to quantify. About the first point, we present original contributions for the formalism of composite systems in BIP language. We propose SBIP, a stochastic extension and define its semantics. SBIP allows the recourse to the stochastic abstraction of components and eliminate the non-determinism. This double effect has the advantage of reducing the size of the initial system by replacing it by a system whose semantics is purely stochastic, a necessary requirement for standard statistical model checking algorithms to be applicable. The second part of this thesis is devoted to the verification of rare properties in statistical model checking. We present a state-of-the-art algorithm for models described by a set of guarded commands. Lastly, we motivate the use of importance splitting for statistical model checking and set up an optimal splitting algorithm. Both methods pursue a common goal to reduce the variance of the estimator and the number of simulations. Nevertheless, they are fundamentally different, the first tackling the problem through the model and the second through the properties.
307

Solving incompressible Navier-Stokes equations on heterogeneous parallel architectures / Résolution des équations de Navier-Stokes incompressibles sur architectures parallèles hétérogènes

Wang, Yushan 09 April 2015 (has links)
Dans cette thèse, nous présentons notre travail de recherche dans le domaine du calcul haute performance en mécanique des fluides. Avec la demande croissante de simulations à haute résolution, il est devenu important de développer des solveurs numériques pouvant tirer parti des architectures récentes comprenant des processeurs multi-cœurs et des accélérateurs. Nous nous proposons dans cette thèse de développer un solveur efficace pour la résolution sur architectures hétérogènes CPU/GPU des équations de Navier-Stokes (NS) relatives aux écoulements 3D de fluides incompressibles.Tout d'abord nous présentons un aperçu de la mécanique des fluides avec les équations de NS pour fluides incompressibles et nous présentons les méthodes numériques existantes. Nous décrivons ensuite le modèle mathématique, et la méthode numérique choisie qui repose sur une technique de prédiction-projection incrémentale.Nous obtenons une distribution équilibrée de la charge de calcul en utilisant une méthode de décomposition de domaines. Une parallélisation à deux niveaux combinée avec de la vectorisation SIMD est utilisée dans notre implémentation pour exploiter au mieux les capacités des machines multi-cœurs. Des expérimentations numériques sur différentes architectures parallèles montrent que notre solveur NS obtient des performances satisfaisantes et un bon passage à l'échelle.Pour améliorer encore la performance de notre solveur NS, nous intégrons le calcul sur GPU pour accélérer les tâches les plus coûteuses en temps de calcul. Le solveur qui en résulte peut être configuré et exécuté sur diverses architectures hétérogènes en spécifiant le nombre de processus MPI, de threads, et de GPUs.Nous incluons également dans ce manuscrit des résultats de simulations numériques pour des benchmarks conçus à partir de cas tests physiques réels. Les résultats obtenus par notre solveur sont comparés avec des résultats de référence. Notre solveur a vocation à être intégré dans une future bibliothèque de mécanique des fluides pour le calcul sur architectures parallèles CPU/GPU. / In this PhD thesis, we present our research in the domain of high performance software for computational fluid dynamics (CFD). With the increasing demand of high-resolution simulations, there is a need of numerical solvers that can fully take advantage of current manycore accelerated parallel architectures. In this thesis we focus more specifically on developing an efficient parallel solver for 3D incompressible Navier-Stokes (NS) equations on heterogeneous CPU/GPU architectures. We first present an overview of the CFD domain along with the NS equations for incompressible fluid flows and existing numerical methods. We describe the mathematical model and the numerical method that we chose, based on an incremental prediction-projection method.A balanced distribution of the computational workload is obtained by using a domain decomposition method. A two-level parallelization combined with SIMD vectorization is used in our implementation to take advantage of the current distributed multicore machines. Numerical experiments on various parallel architectures show that this solver provides satisfying performance and good scalability.In order to further improve the performance of the NS solver, we integrate GPU computing to accelerate the most time-consuming tasks. The resulting solver can be configured for running on various heterogeneous architectures by specifying explicitly the numbers of MPI processes, threads and GPUs. This thesis manuscript also includes simulation results for two benchmarks designed from real physical cases. The computed solutions are compared with existing reference results. The code developed in this work will be the base for a future CFD library for parallel CPU/GPU computations.
308

The load planning problem for double-stack intermodal trains

Mantovani, Serena 04 1900 (has links)
Les trains qui transportent des conteneurs empilés (en deux niveaux) sont un élément important du reseau de transport nord-americain. Le probleme de chargement des wagons correspond un probleme operationnel d'utilisation rencontre dans les terminaux ferroviaires. Elle consiste optimiser l’affectation des conteneurs des emplacements spécifiques sur les wagons. Ce mémoire est centré sur un article scientifique traitant le chargement optimal publié dans le Journal Européen de Recherche Opérationnelle (Volume 267, Numéro 1, Pages 107-119, 2018). Nous avons formule un modele lineaire en nombres entiers (ILP) et apporte un certain nombre de contributions. Premierement, nous avons proposé une méthodologie générale qui peut traiter des wagons double ou simple empilement avec des «patrons» de chargement arbitraires. Les les patrons tiennent un compte des dépendances de chargement entre les plateformes sur un wagon donne. Deuxiemement, nous avons modéliser les restrictions du centre de gravité (COG), les regles d’empilement et un nombre de restrictions techniques de chargement associees certains types de conteneurs et / ou de marchandises. Les resultats montrent que nous pouvons resoudre des instances de taille realiste dans un d´elai raisonnable en utilisant un solveur ILP commercial et nous illustrons que le fait de ne pas tenir compte de la correspondance conteneurs-wagons ainsi que des restrictions COG peut conduire une surestimation de la capacité disponible. / Double-stack trains are an important component of the railroad transport network for containerized cargo in specific markets such as North America. The load planning problem embodies an operational problem commonly faced in rail terminals by operators. It consists in optimizing the assignment of containers to specific locations on the train. The work in this thesis is centered around a scientific paper on the optimization on load planning problem for double stack-trains, published in the European Journal of Operation Research (Volume 267, Issue 1, Pages 1-398) on 16 May 2018. In the paper, we formulated an ILP model and made a number of contributions. First, we proposed a general methodology that can deal with double- or single-stack railcars with arbitrary loading patterns. The patterns account for loading dependencies between the platforms on a given railcar. Second, we modeled Center of gravity (COG) restrictions, stacking rules and a number of technical loading restrictions associated with certain types of containers and/or goods. Results show that we can solve realistic size instances in reasonable time using a commercial ILP solver and we illustrate that failing to account for containers-to-cars matching as well as COG restrictions may lead to an overestimation of the available train capacity.
309

Utilisation de la géométrie dynamique avec de futurs enseignants de mathématiques au secondaire pour repenser le développement du raisonnement

Damboise, Caroline 10 1900 (has links)
Les outils technologiques sont omniprésents dans la société et leur utilisation est de plus en plus grande dans les salles de classe. Du côté de l'enseignement et de l'apprentissage des mathématiques, ces outils se sont vu attribuer des rôles qui ont évolué avec les années. Les rôles de soutien, de visualisation et d'enrichissement des contenus en sont des exemples. Une utilisation des outils technologiques dans l'enseignement s'accompagne d'apports pragmatiques et épistémiques potentiels, mais comporte également des limites et des risques. Il s’avère important d’examiner le rôle accordé à l’outil technologique dans les activités qui le mobilisent. Puisque le raisonnement mathématique fait partie d'une des compétences visées à l’école (MELS, 2006) et que les futurs enseignants semblent accorder moins d'importance à la validation et la preuve comme composantes de ce raisonnement (Mary, 1999), nous émettons l'hypothèse qu'une séquence d'activités montrant la complémentarité de la preuve et des explorations tirant parti de la technologie pourrait aider les futurs enseignants à mieux saisir ces enjeux. La présente recherche s’appuie sur l'ingénierie didactique pour développer et valider une séquence d'activités intégrant le logiciel GeoGebra. Cette séquence d'activités a été conçue dans les buts suivants : initier les futurs enseignants en mathématiques au secondaire à un logiciel de géométrie dynamique et leur donner l'occasion de voir des activités mathématiques utilisant la technologie et visant le développement du raisonnement, par l’articulation de l’exploration et de la preuve. Le cadre théorique sur lequel repose cette recherche intègre des éléments de l'approche anthropologique (Chevallard, 1992, 1998, 2003) et de l'approche instrumentale (Vérillon et Rabardel, 1995; Trouche, 2000, 2003, 2007; Guin et Trouche, 2002). Certaines idées sur les constructions robustes et molles (Soury-Lavergne, 2011), la distinction figure/dessin (Laborde et Capponi, 1994) et le réseau déductif (Tanguay, 2006) ont servi de repères dans la construction de la séquence d'activités. Cette recherche s'est déroulée au cours de l'hiver 2016 dans une université québécoise, dans le cadre d’un cours de didactique de la géométrie auprès de futurs enseignants au secondaire en mathématiques. Un questionnaire pré-expérimentation a été rempli par les participants afin de voir leurs connaissances préalables sur les programmes, les outils technologiques ainsi que leurs conceptions au sujet de l'enseignement et de l'apprentissage des mathématiques. Par la suite, les étudiants ont expérimenté la séquence d'activités et ont eu à se prononcer sur les connaissances mises en jeu dans chacune des activités, l’opportunité de son utilisation avec des élèves du secondaire, et les adaptations perçues nécessaires pour sa réalisation (s'il y a lieu). Des traces écrites de leur travail ont été conservées ainsi qu'un journal de bord au fur et à mesure du déroulement de la séquence. En triangulant les diverses données recueillies, il a été constaté que la séquence, tout en contribuant à l’instrumentation des participants au regard du logiciel utilisé, a eu chez certains d’entre eux un impact sur leur vision du développement du raisonnement mathématique dans l’enseignement des mathématiques au secondaire. L’analyse des données a mis en lumière la place accordée au raisonnement par les futurs enseignants, les raisonnements mobilisés par les étudiants dans les diverses activités ainsi que des indices sur les genèses instrumentales accompagnant ces raisonnements ou les induisant. Suite à l’analyse de ces données et aux constats qui en découlent, des modifications sont proposées pour améliorer la séquence d’activités. / Technological tools are ubiquitous in society and their use is growing in the classroom. In mathematics education, these tools have been assigned roles that have evolved over the years: support, visualization, content enrichment. The use of technological tools in education comes with potential pragmatic and epistemic contributions, but also has limitations and risks. We must therefore examine at the activity level the role technology should play. Mathematical reasoning is one of the competencies aimed by school (MELS, 2006) and future teachers seem to place less emphasis on validation and proving processes as components of this reasoning (Mary, 1999). We hypothesize that a sequence of activities showing the complementarity of the proving processes with explorations leveraging technology could help future teachers better understand these issues. This research is based on didactical engineering to develop and validate a sequence of activities with GeoGebra software. The sequence of activities has been designed to: introduce pre-service secondary mathematics teachers to dynamic geometry software and give them the opportunity to see mathematical activities using technology that aim at developing mathematical reasoning and proof. The theoretical framework on which this research is based integrates elements of the anthropological theory of the didactic (Chevallard, 1992, 1998, 2003) and of the instrumental approach (Vérillon and Rabardel, 1995; Trouche, 2000, 2003, 2007; Guin and Trouche, 2002). Some ideas on robust and soft constructions (Soury-Lavergne, 2011), the distinction between figure and drawing (Laborde and Capponi, 1994) and the deductive network (Tanguay, 2006) served as benchmarks in the construction of the sequence of activities. This research took place at a Quebec university during the winter of 2016, in a geometry didactics course for pre-service secondary mathematics teachers. A preliminary questionnaire was given to the participants to capture their prior knowledge of programs, technological tools and conceptions about mathematics teaching and learning. Subsequently, the students experienced the sequence of activities and had to decide on the knowledge involved in each activity, the relevance of its use with high school students, and the perceived adaptations necessary for its realization (if considered). Written traces of their work have been kept as well as a diary as the sequence unfolds. By triangulating the various data collected, it was found that the sequence, while contributing to the instrumentation of the participants with regard to the software used, had, for some of them, an impact on their vision of the development of mathematical reasoning in mathematics education at secondary level. The analysis of the data highlighted the place given to the reasoning by the future teachers, the reasonings mobilized by the students in the various activities and also signs of the instrumental geneses inducing these reasonings and accompanying them. Following the analysis of these data and the findings that follow, modifications are proposed to improve the sequence of activities.
310

Contribution à la commande d'un onduleur multiniveaux, destinée aux énergies renouvelables, en vue de réduire le déséquilibre dans les réseaux électriques. / Contribution to the control of a multilevel inverter, intended for renewable energies, in order to reduce the imbalance in electrical networks

Riachy, Léa 15 December 2017 (has links)
Le travail de cette thèse apporte une contribution aux méthodes de réglage de la tension dans les réseaux électriques. Il s’agit de fournir au réseau la puissance active et surtout la puissance réactive nécessaire pour réguler la tension et aboutir à un système équilibré vue du côté source. Ces puissances sont extraites d’une source d’energie renouvelable : une attention particulière a été portée à l’énergie éolienne raccordée au réseau à travers la Machine Asynchrone à Double Alimentation (MADA) pilotée par des convertisseurs statiques. Le système de contrôle le plus répandu des éoliennes est basé principalement sur la technique d’extraction du maximum de puissance. Cependant, cette technique limite la mise en oeuvre deservices auxiliaires, telle que la participation des éoliennes au réglage de la tension dans le réseau électrique. Pour cela, une nouvelle méthode d’extraction du coefficient de puissance optimal, permettant d’améliorer la participation de la MADA à la régulation de la tension dans le réseau (compensation de la puissance réactive et du déséquilibre), a été développée. Le convertisseur multiniveaux à structure NPC (Neutral Point Clamped) raccordant l’énergie renouvelable au réseau a été étudié. La commande prédictive assurant simulatnément l’amélioration du facteur de puissance, l’équilibrage du réseau électrique et du bus continu du convertisseur NPC a été proposée. Ensuite, l’application de cette commande prédictive a été elargie en lui attribuant plusieurs objectifs : amélioration du facteur de puissance avec équilibrage du réseau, équilibrage du bus continu, minimisation des pertes par commutation et réduction de la tension de mode commun. La minimisation des pertes a été obtenue en proposant une nouvelle stratégie qui consiste à exploiter les datasheets constructeurs donnant l’évolution de l’énergie dissipée durant la commutation en fonction du courant. Ces courbes expérimentales ont été transformées en modèlesmathématiques implémentés dans la commande prédictive. Les résultats de simulation et expérimentaux sont présentés pour évaluer les performances de la méthode proposée. / The work in this research thesis presents a contribution to voltage regulation in electrical networks. By considering adequate active and reactive powers injection into the grid, voltage control and load balancing are provided. These powers are generated from a grid connected renewable energy conversion system : a special attention was paid to the Wind Energy ConversionSystem (WECS) based on Doubly-Fed Induction Generator (DFIG).The typical control strategy for WECS is the maximum power coefficient tracking method. However, this method limits desirable ancillary power services, such as the participation of wind turbines in voltage regulation in the power grid. Therefore, a new method that derives the optimal power coefficient enhancing the participation of WTS in voltage regulation in the network (reactive and unbalanced power compensation), has been developed. The multilevel NPC (Neutral Point Clamped) converter, used for grid interface connection of renewable energy sources systems, has been studied. A predictive control method for the three-level NPC converter, capable of simultaneously compensating the problems of : DC link capacitors voltage balancing, load balancing and power factor correction in the power system, has been proposed. Then, the application of this predictive control was extended to simultaneously achieve multiple objectives: load balancing with power factor correction in the network, DC link capacitors voltage balancing, switching losses minimization and common mode voltage reduction. The switching losses minimization was obtained by proposing a new strategy which consists on exploiting the manufacturer datasheets that gives the evolution of the switching loss energy in function of the circulating current. The experimental curves of the datasheet are expressed in a mathematical model implemented in the predictive control. Simulation and experimental results are presented to evaluate the performance of the proposed method.

Page generated in 0.3445 seconds