• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Comptage d'orbites périodiques dans le modèle de windtree / Counting problem on wind-tree models

Pardo, Angel 22 June 2017 (has links)
Le problème du cercle de Gauss consiste à compter le nombre de points entiers de longueur bornée dans le plan. Autrement dit, compter le nombre de géodésiques fermées de longueur bornée sur un tore plat bidimensionnel. De très nombreux problèmes de comptage en systèmes dynamiques se sont inspirés de ce problème. Depuis 30 ans, on cherche à comprendre l’asymptotique de géodésiques fermées dans les surfaces de translation. H. Masur a montré que ce nombre a une croissance quadratique. Calculer l’asymptotique quadratique (constante de Siegel–Veech) est un sujet de recherches très actif aujourd’hui. L’objet d’étude de cette thèse est le modèle de windtree, un modèle de billard non compact. Dans le cas classique, on place des obstacles rectangulaires identiques dans le plan en chaque point entier. On joue au billard sur le complémentaire. Nous montrons que le nombre de trajectoires périodiques a une croissance asymptotique quadratique et calculons la constante de Siegel–Veech pour le windtree classique ainsi que pour la généralisation de Delecroix– Zorich. Nous prouvons que, pour le windtree classique, cette constante ne dépend pas des tailles des obstacles (phénomène “non varying” analogue aux résultats de Chen–Möller). Enfin, lorsque la surface de translation compacte sous-jacente est une surface de Veech, nous donnons une version quantitative du comptage. / The Gauss circle problem consists in counting the number of integer points of bounded length in the plane. In other words, counting the number of closed geodesics of bounded length on a flat two dimensional torus. Many counting problems in dynamical systems have been inspired by this problem. For 30 years, the experts try to understand the asymptotic behavior of closed geodesics in translation surfaces. H. Masur proved that this number has quadratic growth rate. Compute the quadratic asymptotic (Siegel–Veech constant) is a very active research domain these days. The object of study in this thesis is the wind-tree model, a non-compact billiard model. In the classical setting, we place identical rectangular obstacles in the plane at each integer point. We play billiard on the complement. We show that the number of periodic trajectories has quadratic asymptotic growth rate and we compute the Siegel–Veech constant for the classical wind-tree model as well as for the Delecroix–Zorich variant. We prove that, for the classical wind-tree model, this constant does not depend on the dimensions of the obstacles (non-varying phenomenon, analogous to results of Chen–Möller). Finally, when the underlying compact translation surface is a Veech surface, we give a quantitative version of the counting.
652

Développement de la technique de scattérométrie neuronale dynamique / Development of artificial neuronal scatterometry for real time process control

El Kalioubi, Ismail 03 June 2015 (has links)
Avec une réduction de la taille des composants en constante progression, le domaine de la microélectronique, et d'une manière plus globale, le domaine de la nanofabrication se doit de posséder des outils de métrologie dimensionnelle performants. L'amélioration de points pertinents comme la rapidité, la précision et la répétabilité devrait permettre un suivi en temps réel de l'évolution des procédés et ainsi améliorer les rendements de production tout en limitant les pertes imputables aux dérives des procédés. Dans ce cadre, la scattérométrie, technique optique de métrologie dimensionnelle basée sur l'analyse de la lumière diffractée, a montré, suivant les cas, des capacités à répondre aux exigences des applications temps réel. Elle se décompose en une phase de mesure, effectuée par un dispositif expérimental (ellipsomètre dans notre cas) et une phase de résolution de problème inverse. La méthode utilisée pour traiter cette dernière phase conditionne la compatibilité avec le temps réel. La méthode des bibliothèques et une méthode utilisant des réseaux de neurones artificiels présentent les qualités requises. La première a déjà été validée pour le suivi d'un procédé de gravure en microélectronique et la seconde a été testée uniquement en statique à la suite d'une étape technologique. Cette thèse a pour but d'évaluer l'apport des réseaux de neurones en scattérométrie dynamique. Basée sur des critères qualitatifs et quantitatifs, cette étude souligne également la difficulté de comparer avec objectivité les différentes techniques de métrologie. Ces travaux dressent également une comparaison minutieuse de ces deux méthodes adaptées au temps réel afin d'en dégager les spécificités de fonctionnement. Enfin, la scattérométrie par l'approche des réseaux de neurones est étudiée dans le cas de la gravure de résine par plasma. En effet, il s'agit d'un procédé de fabrication en microélectronique pour lequel le contrôle in-situ est un enjeu important dans le futur. / The decrease of the components size has been widely witnessed in the past decades. Hence, microelectronic field, and more generally speaking, nanofabrication requires very efficient dimensional metrology tools. The improvement of relevant points like the speed, the accuracy and the repeatability of the tool will allow real time process monitoring and thus enhance the production yield while restricting the waste due to process drift. In this framework, scatterometry, an optical dimensional metrology technique based on the analysis of the diffracted light, has proven its ability to meet real time applications requirements. It is composed of a measuring phase, done by an experimental setup (ellipsometer in our case) and an inverse problem resolution phase. The chosen method used in order to process this last step determines the compatibility with real time. Library method and a method based on artificial neural networks possess the required qualifications. The first one has already been validated for etching process monitoring in microelectronics and the second one has been validated only on static cases after a technological step. This PhD involves assessing neural networks for dynamic scatterometry. Based on qualitative and quantitative criteria, this study underlines the difficulty of comparing different metrology techniques objectively. This work draws up a meticulous comparison of these two real time adapted methods in order to bring out their working specifications. Finally, scatterometry using neural networks is studied on a resist etching plasma case. In fact, this is a microelectronic fabrication process for which in-situ control is of an important concern in the future.
653

Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertainties

Safadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
654

Appearance Modelling for 4D Representations / Modélisation de l'apparence des représentations 4D

Tsiminaki, Vagia 14 December 2016 (has links)
Ces dernières années ont vu l'émergence de la capture des modèles spatio-temporels (modélisation 4D) à partir d'images réelles, avec de nombreuses applications dans les domaines de post-production pour le cinéma, la science des sports, les études sociales, le divertissement, l'industrie de la publicité. A partir de plusieurs séquences vidéos, enregistrées à partir de points de vue variés, la modélisation 4D à partir de vidéos utilise des modèles spatio-temporels pour extraire des informations sur la géométrie et l'apparence de scènes réelles, permettant de les enregistrer et de les reproduire. Cette thèse traite du problème de la modélisation d'apparence.La disponibilité des donnée d'images offre de grands potentiels pour les reconstructions haute fidélité, mais nécessite des méthodes plus élaborées. En outre, les applications du monde réel nécessitent des rendus rapides et des flux réduits de données. Mais l'obtention de représentations d'apparence compactes, indépendantes du point de vue, et à grande résolution est toujours un problème ouvert.Pour obtenir ces caractéristiques, nous exprimons l'information visuelle de l'objet capturé dans un espace de texture commun. Les observations multi-caméra sont considérées comme des réalisations de l'apparence commune et un modèle linéaire est introduit pour matérialiser cette relation. Le modèle linéaire d'apparence proposé permet une première étude du problème de l'estimation d'apparence dans le cas multi-vue et expose les sources variées de bruit et les limitations intrinsèques du modèle.Basé sur ces observations, et afin d'exploiter l'information visuelle de la manière la plus efficace, nous améliorons la méthode en y intégrant un modèle de super-résolution 2D. Le modèle simule le procédé de capture d'image avec une concaténation d'opérations linéaires, générant les observation d'image des différents points de vue et permettant d'exploiter la redondance. Le problème de super-résolution multi-vue résultant est résolu par inférence bayésienne et une représentation haute-résolution d'apparence est fournie permettant de reproduire la texture de l'objet capturé avec grand détail.La composante temporelle est intégrée par la suite au modèle pour permettre d'y recouper l'information visuelle commune sous-jacente. En considérant des petits intervalles de temps ou l'apparence de l'objet ne change pas drastiquement, une représentation super-résolue cohérente temporellement est introduite. Elle explique l'ensemble des images de l'objet capturé dans cet intervalle. Grâce à l'inférence statistique Bayésienne, l'apparence construite permet des rendus avec une grande précision à partir de point de vue nouveau et à des instants différent dans l'intervalle de temps prédéfini.Pour améliorer l'estimation d'apparence d'avantage, l'inter-dépendance de la géométrie et de la photométrie est étudiée et exploitée. Les modélisations de la géométrie et de l'apparence sont unifiées dans le framework de super-résolution permettant une amélioration géométrique globale, ce qui donne à son tour une amélioration importante de l'apparence.Finalement pour encoder la variabilité de l'apparence dynamique des objets subissant plusieurs mouvements, une représentation indépendante du point de vue s'appuyant sur l'analyse en composantes principales est introduite. Cette représentation décompose la variabilité sous-jacente d'apparence en texture propres et déformations propres. La méthode proposée permet de reproduire les apparences de manière précise avec des représentation compactes. Il permet également l'interpolation et la complétion des apparences.Cette étude montre que la représentation compacte, indépendante du point de vue, et super-résolue proposée permet de confronter les nouvelles réalités du problème de modélisation d'apparence. Elle représente un contribution vers des représentations d'apparence 4D haute-qualité et ouvre de nouvelles directions de recherche dans ce domaine. / Capturing spatio-temporal models (4D modelling) from real world imagery has received a growing interest during the last years urged by the increasing demands of real-world applications and the tremendous amount of easily accessible image data. The general objective is to produce realistic representations of the world from captured video sequences. Although geometric modelling has already reached a high level of maturity, the appearance aspect has not been fully explored. The current thesis addresses the problem of appearance modelling for realistic spatio-temporal representations. We propose a view-independent, high resolution appearance representation that successfully encodes the high visual variability of objects under various movements.First, we introduce a common appearance space to express all the available visual information from the captured images. In this space we define the representation of the global appearance of the subject. We then introduce a linear image formation model to simulate the capturing process and to express the multi-camera observations as different realizations of the common appearance. Identifying that the principle of Super-Resolution technique governs also our multi-view scenario, we extend the image generative model to accommodate it. In our work, we use Bayesian inference to solve for the super-resolved common appearance.Second, we propose a temporally coherent appearance representation. We extend the image formation model to generateimages of the subject captured in a small time interval. Our starting point is the observation thatthe appearance of the subject does not change dramatically in a predefined small time interval and the visual information from each view and each frame corresponds to the same appearance representation.We use Bayesian inference to exploit the visual redundant as well as the hidden non-redundant information across time, in order to obtain an appearance representation with fine details.Third, we leverage the interdependency of geometry and photometry and use it toestimate appearance and geometry in a joint manner. We show that by jointly estimating both, we are able to enhance the geometry globally that in turn leads to a significant appearance improvement.Finally, to further encode the dynamic appearance variability of objects that undergo several movements, we cast the appearance modelling as a dimensionality reduction problem. We propose a view-independent representation which builds on PCA and decomposesthe underlying appearance variability into Eigen textures and Eigen warps. The proposed framework is shown to accurately reproduce appearances with compact representations and to resolve appearance interpolation and completion tasks.
655

Identification des défauts d'une pile à combustible par la mesure du champ magnétique externe : vers la détermination de défauts locaux / Faults identification on a fuel cell by external magnetic measurements. : towards of determination of local faults

Ifrek, Lyes 20 November 2017 (has links)
Ce travail a permis de développer une technique non invasive d’identification de la distribution du courant dans une pile à combustible à partir du champ magnétique externe. La mesure du champ s’effectue sur un ensemble de points de mesures choisis spécialement pour détecter les variations du champ par rapport à un fonctionnement optimal de la pile. Les deux composantes du champ magnétique sensibles aux variations sont utilisées. La mesure du champ exploitable est la différence entre un mode considéré sain et un mode quelconque de fonctionnement. Autour de ces mesures de champ magnétique, un problème inverse est modélisé en explorant plusieurs approches de paramétrisation de la distribution du courant. Le caractère mal posé du problème s’est traduit par la non-unicité de la solution et sa sensibilité au bruit. L’affranchissement de ces problèmes est atteint par la régularisation du modèle inverse. L’outil développé permis de reconstruire la distribution du courant indépendamment de la taille du défaut dans la limite de sensibilité. La validation est faite sur un simulateur électrique de pile à combustible et sur une pile de type GENEPAC dans un environnement de laboratoire. / A noninvasive technique for identifying the current distribution in a fuel cell from the external magnetic field is developed. The magnetic field measurements are carried out on a set of points chosen in order to detect only the variations of the magnetic field in a case of a faulty fuel cell. Two components of the magnetic field are used because they are sensitive to current heterogeneities. The exploitable measurement of the magnetic field is the difference between a healthy mode and a faulty mode.An ill-posed inverse problem is modeled by investigating several parametrization approaches of the current distribution. The ill-posed property of the problem conducts to a non-uniqueness of the solution and a high sensitivity to the noise. A regularization method is used in order to get a stable solution. The developed tool allows identifying the current distribution independently of the size of the fault within the sensitivity limit. A validation is done on a fuel cell simulator and on a GENEPAC fuel cell in a laboratory conditions.
656

Techniques avancées d'optimisation pour la résolution du problème de stockage de conteneurs dans un port / Advanced optimization techniques for solving the containers storage problem

Ayachi Hajjem, Imen 02 March 2012 (has links)
Le chargement/déchargement des conteneurs et leurs stockages provisoires dans le port est la plus importante et complexe tâche dans les terminaux portuaires. Elle est fortement liée au routage des grues de quai et son coût augmente considérablement surtout en absence d’une gestion efficace du terminal. Dans ce travail, nous étudions le problème de stockage des conteneurs (PSC). Il appartient à la catégorie des problèmes NP-difficiles et NP-complets. PSC consiste à déterminer un plan d’arrangement des conteneurs destinés à l’import et à l’export dans le port qui minimise les remaniements ultérieurs lors de leur transfert vers le bateau, camion ou train. En effet, le temps d'attente des camions des clients, le temps de transfert des grues de quai et le temps nécessaire au chargement/déchargement du navire sont avantageusement réduits. PSC est généralement étudié en considérant un seul type de conteneur. Cependant, plusieurs types de conteneurs sont utilisés dans les ports maritimes (dry, réfrigérés, toit ouvert,...). En outre, le problème de stockage de conteneurs peut être traité de façon statique ou dynamique (date d’arrivée et de départ des conteneurs incertains).L’objectif de cette thèse est de résoudre le PSC statique et le PSC dynamique pour un seul et plusieurs types de conteneurs en utilisant deux métaheuristiques : l’algorithme génétique, la recherche harmoniquePour vérifier la performance de chacune des approches proposées, une étude comparative des résultats générés par chaque méthode ainsi que celle de l’algorithme LIFO est établie / The loading and unloading of containers and their temporary storage in the container terminal are the most important and complex operation in seaport terminals. It is highly inter-related with the routing of yard crane and truck and their costs increased significantly especially without an efficient terminal management. To improve this process, an efficiency decision for the container storage space allocation must be taken.In this thesis, we studied the container storage problem (CSP). It falls into the category of NP hard and NP complete problems. CSP consists on finding the most suitable storage location for incoming containers that minimizes rehandling operations of containers during their transfer to the ship, truck or train. In fact, the wait time of customer trucks, the transfer time of yard crane and the Ship turnaround time are advantageously reduced.Generally, this problem is studied considering a single container type. However, this does not stand the problem under its real-life statement as there are multiple container types that should be considered, (refrigerated, open side, empty, dry, open top and tank). Often, containers arrive at the port dynamically over time and have an uncertain departure date (ship delayed, a ship down, delayed arrival of customer trucks…). Indeed, CSP must be studied in dynamic aspectThe objective of this thesis is to study Static CSP for a single and various container type and dynamic CSP for ONE and several container types and to propose solutions for each of them. Genetic algorithm and Harmony Search algorithm are used to solve these problems and we compare the results of each approach with the LIFO algorithm
657

Optimisation de la chaine logistique des déchets non dangereux / Non hazardous waste supply chain optimization

Tonneau, Quentin Adrien 18 December 2017 (has links)
Avec plus de 345 millions de tonnes de déchets produits en France en 2012, la performance de la chaîne logistique de collecte, transport et traitement de ces produits et matériaux est devenue un enjeu économique et écologique majeur dans notre société. Dans cette thèse, nous nous intéressons à l’optimisation de la chaîne de collecte et transport des déchets sur le plan tactique et opérationnel. Nous modélisons dans un premier temps un nouveau problème tactique d’optimisation de flux de déchets avec sites de transfert et de traitement sur un horizon mono-périodique puis multi-périodique, afin d’exploiter un réseau logistique existant de manière optimale. Nous résolvons différentes variantes de ce problème linéaire mixte à l’aide d’un solveur. Nous étudions dans un second temps la planification opérationnelle de la collecte de conteneurs d’apport volontaire et des tournées de véhicules associées en résolvant un problème riche de tournées avec gestion de stocks et plateformes de vidage intermédiaires. Nous proposons un modèle d’optimisation de ce nouveau problème et le résolvons par un algorithme à voisinages larges (ALNS) dans un cadre déterministe puis stochastique, dans lequel le remplissage des conteneurs est aléatoire et plus conforme à la réalité. Nous obtenons des résultats compétitifs en évaluant notre approche sur des instances de la littérature proches de notre problème riche. En réalisant un logiciel d’optimisation à destination d’une entreprise de collecte et transport de déchets, nous améliorons également de manière significative les tournées de véhicules en application réelle. / With more than 345 million tons produced in France in2012, waste supply chain management is an important economical and ecological issue for our society. In this thesis, we focus on optimizing waste supply chain on both the tactical and operational decision levels. In order to optimize an existing waste logistic network in medium term, we first solve a multimodal flow problem where products are transferred and transformed in sites of various size, in a mono-periodic then multi-periodic horizon. At an operational level, we study the planning and routing of vehicles used for voluntary drop-off waste container collection by solving a complex inventory routing problem with intermediate facilities. We use a large neighborhoods search metaheuristic to solve both the deterministic and stochastic approaches, where waste supply quantity is also subject to uncertainty. We obtain competitive results on instances coming from the literature on classical routing problems close to our rich case. We also develop an optimization software used by a French waste management company and significantly improve routes in a real application.
658

Etude et résolution d'un problème de transport à la demande multicritère / Study and solving an multicriteria demand responsive transport problem

Atahran, Ahmed 03 December 2012 (has links)
Les travaux présentés dans cette thèse visent à proposer des méthodes permettant de résoudre un problème de Transport à la Demande multicritère. Le premier travail réalisé dans cette thèse est l'étude d'un problème de Dial-a-Ride (DARP) statique multicritère. Trois critères qui peuvent être conflictuels ont été définis : le premier consiste à minimiser le coût de transport, le deuxième critère consiste à minimiser l'insatisfaction des passagers et enfin le troisième critère consiste à minimiser la quantité de CO2 émise par l'ensemble des véhicules. Nous avons développé une méthode évolutionnaire NSGA-II pour chercher un ensemble approximatif d'optimas de Pareto. Le second travail réalisé est l'étude d'un problème d'Optimal Timing dans une tournée. Ce problème consiste à calculer les dates de début de service optimales des points d'arrêts d'une tournée afin de minimiser l'insatisfaction des passagers. Le dernier travail de cette thèse a porté sur l'étude d'un problème de Transport à la Demande dynamique dans lequel de nouvelles requêtes à traiter arrivent en cours de journée. Deux méthodes ont été proposées pour résoudre ce problème : la première est une heuristique d'insertion rapide et la seconde est une méthode arborescente tronquée connue sous le nom de Recovering Beam Search. / The work presented in this thesis aims to propose methods to solve a multicriteria dial-a-ride problem (DARP). Three objective functions that have to be optimized in order to measure the potential efficiency of the DARP solution on different aspects : the cost for the transportation operator, the quality of service for users and the impact on the environment. The first work in this thesis is the study of static DARP for which a NSGA-II algorithm is developped to identify a good approximation of the Pareto optimal set. The second work deals with an optimal timing algorithm which computes pickup and delivery dates when the requests are sequenced on the vehicles, the objective is to minimize the total customer' dissatisfaction. The last problem studied in this thesis aims to solve the dynamic version of DARP for which two methods are proposed. The first one is a fast insertion heuristic based on an attractive index. However, the second methode uses a recovering beam search heuristic which unlike the insertion heuristic allows to modify the structure of the routes previously scheduled in order to schedule the new requests.
659

Refined and advanced shell models for the analysis of advanced structures / Modèles raffinées et avancées de coque pour l'analyse des structures

Cinefra, Maria 02 May 2012 (has links)
La thèse est décomposée en trois parties. Dans la première partie, les modèles de la CUF sont présentés. La CUF permet d’obtenir, dans un formalisme générale, de nombreux modèles qui diffèrent 1) selon l’ordre d’expansion dans l'épaisseur choisie pour les variables primaires; 2) selon le type de modèle: modèles couche équivalente (ESL) ou couche discrète (LW); 3) selon le principe variationnel : “Principle of Virtual Displacements” (raffinée) ou “Reissner’s Mixed Variational Theorem” (avancée). Des géométries cylindrique et à double courbure sont traités. La deuxième partie de la thèse est consacrée à l'obtention des équations fondamentales en utilisant différentes méthodes: la méthode analytique de Navier et deux méthodes numériques approchées; la “Finite Element Method” (FEM) et la “Radial Basis Functions” (RBF). La méthode RBF est une méthode sans maillage “meshless” et peut être considérée comme une méthode alternative à la FEM. La FEM est la plus utilisée dans la littérature et le sujet principal de cette thèse.Dans la dernière partie, différents problèmes sont proposés. Navier est utilisé pour l’analyse thermomécanique de coques FGM, l’analyse de coques piézo-électrique et l’analyse dynamique de nanotubes de carbone. Un élément fini coque, présenté dans cette thèse, est utilisé pour l’analyse de coques composites et FGM. Les résultats obtenus démontrent la supériorité de cet élément par rapport aux éléments finis basés sur les théories classiques pour l’analyse des matériaux avancés. Enfin, la méthode RBF est utilisée pour l’analyse de coques composites, permettant d'illustrer l'avantage des méthodes sans maillage. / The dissertation is organized in three main parts. In the first part, the shell models contained in the CUF are presented. The CUF permits to obtain, in a general and unified manner, several models that can differ by 1) the chosen order of expansion in the thickness direction, 2) the equivalent single layer or layer wise approach and 3) the variational statement used: “Principle of Virtual Displacements” (refined models) or “Reissner’s Mixed Variational Theorem” (advanced models). Both the cylindrical and the double-curvature geometries are considered. The second part is devoted to the derivation of the governing equations by means of different methods: an analytical method, that is the Navier method, and two approximated numerical methods, that are the Finite Element Method (FEM) and the Radial Basis Functions (RBF) method. The RBF method is based on a meshless approach and it can be considered a good alternative to the FEM. The finite element method is the most common method used in literature and it is the main topic of this thesis. In the last part, different problems are analyzed. The thermo-mechanical analysis of FGM shells, the electromechanical analysis of piezoelectric shells and the dynamic analysis of carbon nanotubes are performed by means of the Navier method. Then, the CUF shell finite element, presented in this thesis, is tested and used for the analysis of composite and FGM shells. The superiority of this element in respect to finite elements based on classical theories is shown. Finally, the RBF method is combined with the CUF for the analysis of composite and FGM shells in order to overcome the numerical problems relative to the mesh that usually affect the finite elements.
660

Analysis and Geometry of RCD spaces via the Schrödinger problem / Analyse et géométrie des espaces RCD par le biais du problème de Schrödinger

Tamanini, Luca 29 September 2017 (has links)
Le but principal de ce manuscrit est celui de présenter une nouvelle méthode d'interpolation entre des probabilités inspirée du problème de Schrödinger, problème de minimisation entropique ayant des liens très forts avec le transport optimal. À l'aide de solutions au problème de Schrödinger, nous obtenons un schéma d'approximation robuste jusqu'au deuxième ordre et différent de Brenier-McCann qui permet d'établir la formule de dérivation du deuxième ordre le long des géodésiques Wasserstein dans le cadre de espaces RCD* de dimension finie. Cette formule était inconnue même dans le cadre des espaces d'Alexandrov et nous en donnerons quelques applications. La démonstration utilise un ensemble remarquable de nouvelles propriétés pour les solutions au problème de Schrödinger dynamique :- une borne uniforme des densités le long des interpolations entropiques ;- la lipschitzianité uniforme des potentiels de Schrödinger ;- un contrôle L2 uniforme des accélérations. Ces outils sont indispensables pour explorer les informations géométriques encodées par les interpolations entropiques. Les techniques utilisées peuvent aussi être employées pour montrer que la solution visqueuse de l'équation d'Hamilton-Jacobi peut être récupérée à travers une méthode de « vanishing viscosity », comme dans le cas lisse.Dans tout le manuscrit, plusieurs remarques sur l'interprétation physique du problème de Schrödinger seront mises en lumière. Cela pourra aider le lecteur à mieux comprendre les motivations probabilistes et physiques du problème, ainsi qu'à les connecter avec la nature analytique et géométrique de la dissertation. / Main aim of this manuscript is to present a new interpolation technique for probability measures, which is strongly inspired by the Schrödinger problem, an entropy minimization problem deeply related to optimal transport. By means of the solutions to the Schrödinger problem, we build an efficient approximation scheme, robust up to the second order and different from Brenier-McCann's classical one. Such scheme allows us to prove the second order differentiation formula along geodesics in finite-dimensional RCD* spaces. This formula is new even in the context of Alexandrov spaces and we provide some applications.The proof relies on new, even in the smooth setting, estimates concerning entropic interpolations which we believe are interesting on their own. In particular we obtain:- equiboundedness of the densities along the entropic interpolations,- equi-Lipschitz continuity of the Schrödinger potentials,- a uniform weighted L2 control of the Hessian of such potentials. These tools are very useful in the investigation of the geometric information encoded in entropic interpolations. The techniques used in this work can be also used to show that the viscous solution of the Hamilton-Jacobi equation can be obtained via a vanishing viscosity method, in accordance with the smooth case. Throughout the whole manuscript, several remarks on the physical interpretation of the Schrödinger problem are pointed out. Hopefully, this will allow the reader to better understand the physical and probabilistic motivations of the problem as well as to connect them with the analytical and geometric nature of the dissertation.

Page generated in 0.0664 seconds