651 |
Formulation de la tomographie des temps de première arrivée par une méthode de gradient : un pas vers une tomographie interactiveTaillandier, Cédric 02 December 2008 (has links) (PDF)
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss-Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en oeuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
|
652 |
Stochastic model of high-speed train dynamics for the prediction of long-time evolution of the track irregularities / Modèle stochastique de la dynamique des trains à grande vitesse pour la prévision de l'évolution à long terme des défauts de géométrie de la voieLestoille, Nicolas 16 October 2015 (has links)
Les voies ferrées sont de plus en plus sollicitées: le nombre de trains à grande vitesse, leur vitesse et leur charge ne cessent d'augmenter, ce qui contribue à la formation de défauts de géométrie sur la voie. En retour, ces défauts de géométrie influencent la réponse dynamique du train et dégradent les conditions de confort. Pour garantir de bonnes conditions de confort, les entreprises ferroviaires réalisent des opérations de maintenance de la voie, qui sont très coûteuses. Ces entreprises ont donc intérêt à prévoir l'évolution temporelle des défauts de géométrie de la voie pour anticiper les opérations de maintenance, et ainsi réduire les coûts de maintenance et améliorer les conditions de transport. Dans cette thèse, on analyse l'évolution temporelle d'une portion de voie par un indicateur vectoriel sur la dynamique du train. Pour la portion de voie choisie, on construit un modèle stochastique local des défauts de géométrie de la voie à partir d'un modèle global des défauts de géométrie et de big data de défauts mesurés par un train de mesure. Ce modèle stochastique local prend en compte la variabilité des défauts de géométrie de la voie et permet de générer des réalisations des défauts pour chaque temps de mesure. Après avoir validé le modèle numérique de la dynamique du train, les réponses dynamiques du train sur la portion de voie mesurée sont simulées numériquement en utilisant le modèle stochastique local des défauts de géométrie. Un indicateur dynamique, vectoriel et aléatoire, est introduit pour caractériser la réponse dynamique du train sur la portion de voie. Cet indicateur dynamique est construit de manière à prendre en compte les incertitudes de modèle dans le modèle numérique de la dynamique du train. Pour identifier le modèle stochastique des défauts de géométrie et pour caractériser les incertitudes de modèle, des méthodes stochastiques avancées, comme par exemple la décomposition en chaos polynomial ou le maximum de vraisemblance multidimensionnel, sont appliquées à des champs aléatoires non gaussiens et non stationnaires. Enfin, un modèle stochastique de prédiction est proposé pour prédire les quantités statistiques de l'indicateur dynamique, ce qui permet d'anticiper le besoin en maintenance. Ce modèle est construit en utilisant les résultats de la simulation de la dynamique du train et consiste à utiliser un modèle non stationnaire de type filtre de Kalman avec une condition initiale non gaussienne / Railways tracks are subjected to more and more constraints, because the number of high-speed trains using the high-speed lines, the trains speed, and the trains load keep increasing. These solicitations contribute to produce track irregularities. In return, track irregularities influence the train dynamic responses, inducing degradation of the comfort. To guarantee good conditions of comfort in the train, railways companies perform maintenance operations of the track, which are very costly. Consequently, there is a great interest for the railways companies to predict the long-time evolution of the track irregularities for a given track portion, in order to be able to anticipate the start off of the maintenance operations, and therefore to reduce the maintenance costs and to improve the running conditions. In this thesis, the long-time evolution of a given track portion is analyzed through a vector-valued indicator on the train dynamics. For this given track portion, a local stochastic model of the track irregularities is constructed using a global stochastic model of the track irregularities and using big data made up of experimental measurements of the track irregularities performed by a measuring train. This local stochastic model takes into account the variability of the track irregularities and allows for generating realizations of the track irregularities at each long time. After validating the computational model of the train dynamics, the train dynamic responses on the measured track portion are numerically simulated using the local stochastic model of the track irregularities. A vector-valued random dynamic indicator is defined to characterize the train dynamic responses on the given track portion. This dynamic indicator is constructed such that it takes into account the model uncertainties in the train dynamics computational model. For the identification of the track irregularities stochastic model and the characterization of the model uncertainties, advanced stochastic methods such as the polynomial chaos expansion and the multivariate maximum likelihood are applied to non-Gaussian and non-stationary random fields. Finally, a stochastic predictive model is proposed for predicting the statistical quantities of the random dynamic indicator, which allows for anticipating the need for track maintenance. This modeling is constructed using the results of the train dynamics simulation and consists in using a non-stationary Kalman-filter type model with a non-Gaussian initial condition. The proposed model is validated using experimental data for the French railways network for the high-speed trains
|
653 |
Analyse et optimisation d'un processus à partir d'un modèle BPMN dans une démarche globale de conception et de développement d'un processus métier : application à la dématérialisation de flux courrier du projet GOCD (PICOM) / Integrating a business process analysis and optimization step using BPMN model in a general process design and development approach : application to a paperless mail flow processShraideh, Ahmad 08 December 2009 (has links)
Cette thèse a été réalisée dans le cadre du projet « Gestion et Optimisation de la Chaîne Documentaire », projet labellisé par le Pôle de compétitivité des Industries du Commerce. Le projet a pour but de concevoir et de développer un nouveau workflow et un outil d’aide à la décision. Ce système doit être capable de gérer et d’optimiser le flux complet dématérialisé de contrats reçus à COFIDIS.Nous présentons d’abord le framework retenu dans le cadre du projet pour modéliser et implémenter le workflow. En phase de conception BPMN a été choisi. Pour la partie développement, l’utilisation de BPEL a été préconisée pour implémenter et exécuter l'application finale (services web).Cependant la flexibilité offerte par BPMN peut conduire à des propriétés indésirables du processus telles que blocage et inaccessibilité. De plus, BPMN a été conçu pour fournir des modèles Orientés Process. Les données ou les ressources y sont donc peu représentées. En conséquence, l'analyse de performance sur un modèle BPMN est quasi inexistante.Afin de surmonter ces problèmes nous proposons d’insérer dans le framework deux nouvelles phases. Ces deux phases sont appliquées au modèle BPMN. La première est une phase de vérification et de validation et la deuxième une phase d'optimisation. Ces deux phases sont réalisées en transformant le modèle BPMN vers un langage formel. Notre choix dans ce travail a été d'utiliser les réseaux de Petri. Ce qui nous a permis de vérifier et de valider de bonnes propriétés du process. Quant à l’optimisation, nous avons défini une nouvelle variante du problème d’affectation (bin packing problem) et proposé une résolution à intégrer dans le processus d’aide à la décision / This thesis has been realized as a part of the project GOCD (French acronym for Management and optimization of document life cycle) and within the context of the French competitive cluster PICOM. The project aims to design and develop a new paperless workflow system and decision making tool to replace the current paper based system. The new workflow system must manage and optimize received credit demands at COFIDIS.The first part of this thesis presents and discusses a framework to model and implement workflow systems. The proposed framework allows more flexibility in workflow reengineering process and operational analysis for different business process. The proposed framework uses the most recent and promising language to model and execute workflow the Business Process Modeling Notation (BPMN) and Business Process Execution Language (BPEL).The flexibility offered by BPMN can also lead to undesirable properties for business process such as deadlocks and unreachablity. More, BPMN notation was designed to model business process, and little consideration was concentrated to represent data and resources. As a result, carrying out performance analysis on a BPMN model is also limited.To overcome these problems, we propose two additional phases in the reengineering process. They are applied to the target BPMN model. The first phase is verification and validation and the second one is optimization. These two phases are realized by transforming the BPMN model to a formal language, Petri nets. As for optimization, a new variant of bin packing problem has been defined. And we propose to integrate its resolution in a decision making tool
|
654 |
Comptage d'orbites périodiques dans le modèle de windtree / Counting problem on wind-tree modelsPardo, Angel 22 June 2017 (has links)
Le problème du cercle de Gauss consiste à compter le nombre de points entiers de longueur bornée dans le plan. Autrement dit, compter le nombre de géodésiques fermées de longueur bornée sur un tore plat bidimensionnel. De très nombreux problèmes de comptage en systèmes dynamiques se sont inspirés de ce problème. Depuis 30 ans, on cherche à comprendre l’asymptotique de géodésiques fermées dans les surfaces de translation. H. Masur a montré que ce nombre a une croissance quadratique. Calculer l’asymptotique quadratique (constante de Siegel–Veech) est un sujet de recherches très actif aujourd’hui. L’objet d’étude de cette thèse est le modèle de windtree, un modèle de billard non compact. Dans le cas classique, on place des obstacles rectangulaires identiques dans le plan en chaque point entier. On joue au billard sur le complémentaire. Nous montrons que le nombre de trajectoires périodiques a une croissance asymptotique quadratique et calculons la constante de Siegel–Veech pour le windtree classique ainsi que pour la généralisation de Delecroix– Zorich. Nous prouvons que, pour le windtree classique, cette constante ne dépend pas des tailles des obstacles (phénomène “non varying” analogue aux résultats de Chen–Möller). Enfin, lorsque la surface de translation compacte sous-jacente est une surface de Veech, nous donnons une version quantitative du comptage. / The Gauss circle problem consists in counting the number of integer points of bounded length in the plane. In other words, counting the number of closed geodesics of bounded length on a flat two dimensional torus. Many counting problems in dynamical systems have been inspired by this problem. For 30 years, the experts try to understand the asymptotic behavior of closed geodesics in translation surfaces. H. Masur proved that this number has quadratic growth rate. Compute the quadratic asymptotic (Siegel–Veech constant) is a very active research domain these days. The object of study in this thesis is the wind-tree model, a non-compact billiard model. In the classical setting, we place identical rectangular obstacles in the plane at each integer point. We play billiard on the complement. We show that the number of periodic trajectories has quadratic asymptotic growth rate and we compute the Siegel–Veech constant for the classical wind-tree model as well as for the Delecroix–Zorich variant. We prove that, for the classical wind-tree model, this constant does not depend on the dimensions of the obstacles (non-varying phenomenon, analogous to results of Chen–Möller). Finally, when the underlying compact translation surface is a Veech surface, we give a quantitative version of the counting.
|
655 |
Développement de la technique de scattérométrie neuronale dynamique / Development of artificial neuronal scatterometry for real time process controlEl Kalioubi, Ismail 03 June 2015 (has links)
Avec une réduction de la taille des composants en constante progression, le domaine de la microélectronique, et d'une manière plus globale, le domaine de la nanofabrication se doit de posséder des outils de métrologie dimensionnelle performants. L'amélioration de points pertinents comme la rapidité, la précision et la répétabilité devrait permettre un suivi en temps réel de l'évolution des procédés et ainsi améliorer les rendements de production tout en limitant les pertes imputables aux dérives des procédés. Dans ce cadre, la scattérométrie, technique optique de métrologie dimensionnelle basée sur l'analyse de la lumière diffractée, a montré, suivant les cas, des capacités à répondre aux exigences des applications temps réel. Elle se décompose en une phase de mesure, effectuée par un dispositif expérimental (ellipsomètre dans notre cas) et une phase de résolution de problème inverse. La méthode utilisée pour traiter cette dernière phase conditionne la compatibilité avec le temps réel. La méthode des bibliothèques et une méthode utilisant des réseaux de neurones artificiels présentent les qualités requises. La première a déjà été validée pour le suivi d'un procédé de gravure en microélectronique et la seconde a été testée uniquement en statique à la suite d'une étape technologique. Cette thèse a pour but d'évaluer l'apport des réseaux de neurones en scattérométrie dynamique. Basée sur des critères qualitatifs et quantitatifs, cette étude souligne également la difficulté de comparer avec objectivité les différentes techniques de métrologie. Ces travaux dressent également une comparaison minutieuse de ces deux méthodes adaptées au temps réel afin d'en dégager les spécificités de fonctionnement. Enfin, la scattérométrie par l'approche des réseaux de neurones est étudiée dans le cas de la gravure de résine par plasma. En effet, il s'agit d'un procédé de fabrication en microélectronique pour lequel le contrôle in-situ est un enjeu important dans le futur. / The decrease of the components size has been widely witnessed in the past decades. Hence, microelectronic field, and more generally speaking, nanofabrication requires very efficient dimensional metrology tools. The improvement of relevant points like the speed, the accuracy and the repeatability of the tool will allow real time process monitoring and thus enhance the production yield while restricting the waste due to process drift. In this framework, scatterometry, an optical dimensional metrology technique based on the analysis of the diffracted light, has proven its ability to meet real time applications requirements. It is composed of a measuring phase, done by an experimental setup (ellipsometer in our case) and an inverse problem resolution phase. The chosen method used in order to process this last step determines the compatibility with real time. Library method and a method based on artificial neural networks possess the required qualifications. The first one has already been validated for etching process monitoring in microelectronics and the second one has been validated only on static cases after a technological step. This PhD involves assessing neural networks for dynamic scatterometry. Based on qualitative and quantitative criteria, this study underlines the difficulty of comparing different metrology techniques objectively. This work draws up a meticulous comparison of these two real time adapted methods in order to bring out their working specifications. Finally, scatterometry using neural networks is studied on a resist etching plasma case. In fact, this is a microelectronic fabrication process for which in-situ control is of an important concern in the future.
|
656 |
Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes / Contribution to the risk assessment related to DGT (dangerous goods transportation) by taking into account uncertaintiesSafadi, El Abed El 09 July 2015 (has links)
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci. / When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed.
|
657 |
Appearance Modelling for 4D Representations / Modélisation de l'apparence des représentations 4DTsiminaki, Vagia 14 December 2016 (has links)
Ces dernières années ont vu l'émergence de la capture des modèles spatio-temporels (modélisation 4D) à partir d'images réelles, avec de nombreuses applications dans les domaines de post-production pour le cinéma, la science des sports, les études sociales, le divertissement, l'industrie de la publicité. A partir de plusieurs séquences vidéos, enregistrées à partir de points de vue variés, la modélisation 4D à partir de vidéos utilise des modèles spatio-temporels pour extraire des informations sur la géométrie et l'apparence de scènes réelles, permettant de les enregistrer et de les reproduire. Cette thèse traite du problème de la modélisation d'apparence.La disponibilité des donnée d'images offre de grands potentiels pour les reconstructions haute fidélité, mais nécessite des méthodes plus élaborées. En outre, les applications du monde réel nécessitent des rendus rapides et des flux réduits de données. Mais l'obtention de représentations d'apparence compactes, indépendantes du point de vue, et à grande résolution est toujours un problème ouvert.Pour obtenir ces caractéristiques, nous exprimons l'information visuelle de l'objet capturé dans un espace de texture commun. Les observations multi-caméra sont considérées comme des réalisations de l'apparence commune et un modèle linéaire est introduit pour matérialiser cette relation. Le modèle linéaire d'apparence proposé permet une première étude du problème de l'estimation d'apparence dans le cas multi-vue et expose les sources variées de bruit et les limitations intrinsèques du modèle.Basé sur ces observations, et afin d'exploiter l'information visuelle de la manière la plus efficace, nous améliorons la méthode en y intégrant un modèle de super-résolution 2D. Le modèle simule le procédé de capture d'image avec une concaténation d'opérations linéaires, générant les observation d'image des différents points de vue et permettant d'exploiter la redondance. Le problème de super-résolution multi-vue résultant est résolu par inférence bayésienne et une représentation haute-résolution d'apparence est fournie permettant de reproduire la texture de l'objet capturé avec grand détail.La composante temporelle est intégrée par la suite au modèle pour permettre d'y recouper l'information visuelle commune sous-jacente. En considérant des petits intervalles de temps ou l'apparence de l'objet ne change pas drastiquement, une représentation super-résolue cohérente temporellement est introduite. Elle explique l'ensemble des images de l'objet capturé dans cet intervalle. Grâce à l'inférence statistique Bayésienne, l'apparence construite permet des rendus avec une grande précision à partir de point de vue nouveau et à des instants différent dans l'intervalle de temps prédéfini.Pour améliorer l'estimation d'apparence d'avantage, l'inter-dépendance de la géométrie et de la photométrie est étudiée et exploitée. Les modélisations de la géométrie et de l'apparence sont unifiées dans le framework de super-résolution permettant une amélioration géométrique globale, ce qui donne à son tour une amélioration importante de l'apparence.Finalement pour encoder la variabilité de l'apparence dynamique des objets subissant plusieurs mouvements, une représentation indépendante du point de vue s'appuyant sur l'analyse en composantes principales est introduite. Cette représentation décompose la variabilité sous-jacente d'apparence en texture propres et déformations propres. La méthode proposée permet de reproduire les apparences de manière précise avec des représentation compactes. Il permet également l'interpolation et la complétion des apparences.Cette étude montre que la représentation compacte, indépendante du point de vue, et super-résolue proposée permet de confronter les nouvelles réalités du problème de modélisation d'apparence. Elle représente un contribution vers des représentations d'apparence 4D haute-qualité et ouvre de nouvelles directions de recherche dans ce domaine. / Capturing spatio-temporal models (4D modelling) from real world imagery has received a growing interest during the last years urged by the increasing demands of real-world applications and the tremendous amount of easily accessible image data. The general objective is to produce realistic representations of the world from captured video sequences. Although geometric modelling has already reached a high level of maturity, the appearance aspect has not been fully explored. The current thesis addresses the problem of appearance modelling for realistic spatio-temporal representations. We propose a view-independent, high resolution appearance representation that successfully encodes the high visual variability of objects under various movements.First, we introduce a common appearance space to express all the available visual information from the captured images. In this space we define the representation of the global appearance of the subject. We then introduce a linear image formation model to simulate the capturing process and to express the multi-camera observations as different realizations of the common appearance. Identifying that the principle of Super-Resolution technique governs also our multi-view scenario, we extend the image generative model to accommodate it. In our work, we use Bayesian inference to solve for the super-resolved common appearance.Second, we propose a temporally coherent appearance representation. We extend the image formation model to generateimages of the subject captured in a small time interval. Our starting point is the observation thatthe appearance of the subject does not change dramatically in a predefined small time interval and the visual information from each view and each frame corresponds to the same appearance representation.We use Bayesian inference to exploit the visual redundant as well as the hidden non-redundant information across time, in order to obtain an appearance representation with fine details.Third, we leverage the interdependency of geometry and photometry and use it toestimate appearance and geometry in a joint manner. We show that by jointly estimating both, we are able to enhance the geometry globally that in turn leads to a significant appearance improvement.Finally, to further encode the dynamic appearance variability of objects that undergo several movements, we cast the appearance modelling as a dimensionality reduction problem. We propose a view-independent representation which builds on PCA and decomposesthe underlying appearance variability into Eigen textures and Eigen warps. The proposed framework is shown to accurately reproduce appearances with compact representations and to resolve appearance interpolation and completion tasks.
|
658 |
Identification des défauts d'une pile à combustible par la mesure du champ magnétique externe : vers la détermination de défauts locaux / Faults identification on a fuel cell by external magnetic measurements. : towards of determination of local faultsIfrek, Lyes 20 November 2017 (has links)
Ce travail a permis de développer une technique non invasive d’identification de la distribution du courant dans une pile à combustible à partir du champ magnétique externe. La mesure du champ s’effectue sur un ensemble de points de mesures choisis spécialement pour détecter les variations du champ par rapport à un fonctionnement optimal de la pile. Les deux composantes du champ magnétique sensibles aux variations sont utilisées. La mesure du champ exploitable est la différence entre un mode considéré sain et un mode quelconque de fonctionnement. Autour de ces mesures de champ magnétique, un problème inverse est modélisé en explorant plusieurs approches de paramétrisation de la distribution du courant. Le caractère mal posé du problème s’est traduit par la non-unicité de la solution et sa sensibilité au bruit. L’affranchissement de ces problèmes est atteint par la régularisation du modèle inverse. L’outil développé permis de reconstruire la distribution du courant indépendamment de la taille du défaut dans la limite de sensibilité. La validation est faite sur un simulateur électrique de pile à combustible et sur une pile de type GENEPAC dans un environnement de laboratoire. / A noninvasive technique for identifying the current distribution in a fuel cell from the external magnetic field is developed. The magnetic field measurements are carried out on a set of points chosen in order to detect only the variations of the magnetic field in a case of a faulty fuel cell. Two components of the magnetic field are used because they are sensitive to current heterogeneities. The exploitable measurement of the magnetic field is the difference between a healthy mode and a faulty mode.An ill-posed inverse problem is modeled by investigating several parametrization approaches of the current distribution. The ill-posed property of the problem conducts to a non-uniqueness of the solution and a high sensitivity to the noise. A regularization method is used in order to get a stable solution. The developed tool allows identifying the current distribution independently of the size of the fault within the sensitivity limit. A validation is done on a fuel cell simulator and on a GENEPAC fuel cell in a laboratory conditions.
|
659 |
Techniques avancées d'optimisation pour la résolution du problème de stockage de conteneurs dans un port / Advanced optimization techniques for solving the containers storage problemAyachi Hajjem, Imen 02 March 2012 (has links)
Le chargement/déchargement des conteneurs et leurs stockages provisoires dans le port est la plus importante et complexe tâche dans les terminaux portuaires. Elle est fortement liée au routage des grues de quai et son coût augmente considérablement surtout en absence d’une gestion efficace du terminal. Dans ce travail, nous étudions le problème de stockage des conteneurs (PSC). Il appartient à la catégorie des problèmes NP-difficiles et NP-complets. PSC consiste à déterminer un plan d’arrangement des conteneurs destinés à l’import et à l’export dans le port qui minimise les remaniements ultérieurs lors de leur transfert vers le bateau, camion ou train. En effet, le temps d'attente des camions des clients, le temps de transfert des grues de quai et le temps nécessaire au chargement/déchargement du navire sont avantageusement réduits. PSC est généralement étudié en considérant un seul type de conteneur. Cependant, plusieurs types de conteneurs sont utilisés dans les ports maritimes (dry, réfrigérés, toit ouvert,...). En outre, le problème de stockage de conteneurs peut être traité de façon statique ou dynamique (date d’arrivée et de départ des conteneurs incertains).L’objectif de cette thèse est de résoudre le PSC statique et le PSC dynamique pour un seul et plusieurs types de conteneurs en utilisant deux métaheuristiques : l’algorithme génétique, la recherche harmoniquePour vérifier la performance de chacune des approches proposées, une étude comparative des résultats générés par chaque méthode ainsi que celle de l’algorithme LIFO est établie / The loading and unloading of containers and their temporary storage in the container terminal are the most important and complex operation in seaport terminals. It is highly inter-related with the routing of yard crane and truck and their costs increased significantly especially without an efficient terminal management. To improve this process, an efficiency decision for the container storage space allocation must be taken.In this thesis, we studied the container storage problem (CSP). It falls into the category of NP hard and NP complete problems. CSP consists on finding the most suitable storage location for incoming containers that minimizes rehandling operations of containers during their transfer to the ship, truck or train. In fact, the wait time of customer trucks, the transfer time of yard crane and the Ship turnaround time are advantageously reduced.Generally, this problem is studied considering a single container type. However, this does not stand the problem under its real-life statement as there are multiple container types that should be considered, (refrigerated, open side, empty, dry, open top and tank). Often, containers arrive at the port dynamically over time and have an uncertain departure date (ship delayed, a ship down, delayed arrival of customer trucks…). Indeed, CSP must be studied in dynamic aspectThe objective of this thesis is to study Static CSP for a single and various container type and dynamic CSP for ONE and several container types and to propose solutions for each of them. Genetic algorithm and Harmony Search algorithm are used to solve these problems and we compare the results of each approach with the LIFO algorithm
|
660 |
Optimisation de la chaine logistique des déchets non dangereux / Non hazardous waste supply chain optimizationTonneau, Quentin Adrien 18 December 2017 (has links)
Avec plus de 345 millions de tonnes de déchets produits en France en 2012, la performance de la chaîne logistique de collecte, transport et traitement de ces produits et matériaux est devenue un enjeu économique et écologique majeur dans notre société. Dans cette thèse, nous nous intéressons à l’optimisation de la chaîne de collecte et transport des déchets sur le plan tactique et opérationnel. Nous modélisons dans un premier temps un nouveau problème tactique d’optimisation de flux de déchets avec sites de transfert et de traitement sur un horizon mono-périodique puis multi-périodique, afin d’exploiter un réseau logistique existant de manière optimale. Nous résolvons différentes variantes de ce problème linéaire mixte à l’aide d’un solveur. Nous étudions dans un second temps la planification opérationnelle de la collecte de conteneurs d’apport volontaire et des tournées de véhicules associées en résolvant un problème riche de tournées avec gestion de stocks et plateformes de vidage intermédiaires. Nous proposons un modèle d’optimisation de ce nouveau problème et le résolvons par un algorithme à voisinages larges (ALNS) dans un cadre déterministe puis stochastique, dans lequel le remplissage des conteneurs est aléatoire et plus conforme à la réalité. Nous obtenons des résultats compétitifs en évaluant notre approche sur des instances de la littérature proches de notre problème riche. En réalisant un logiciel d’optimisation à destination d’une entreprise de collecte et transport de déchets, nous améliorons également de manière significative les tournées de véhicules en application réelle. / With more than 345 million tons produced in France in2012, waste supply chain management is an important economical and ecological issue for our society. In this thesis, we focus on optimizing waste supply chain on both the tactical and operational decision levels. In order to optimize an existing waste logistic network in medium term, we first solve a multimodal flow problem where products are transferred and transformed in sites of various size, in a mono-periodic then multi-periodic horizon. At an operational level, we study the planning and routing of vehicles used for voluntary drop-off waste container collection by solving a complex inventory routing problem with intermediate facilities. We use a large neighborhoods search metaheuristic to solve both the deterministic and stochastic approaches, where waste supply quantity is also subject to uncertainty. We obtain competitive results on instances coming from the literature on classical routing problems close to our rich case. We also develop an optimization software used by a French waste management company and significantly improve routes in a real application.
|
Page generated in 0.0485 seconds