• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Contribution à l'amélioration du modèle de source dans la méthode des éléments finis pour la résolution du problème direct en électroencéphalographie / Contribution to the improvement of the source model with the finite element method for solving the forward problem in electroencephalography

Medani, Takfarinas 24 May 2016 (has links)
La compréhension du fonctionnement du cerveau est un des défis majeurs des neurosciences. Pour appréhender cet organe in vivo de nombreux dispositifs sont développés, parmi eux l'électroencéphalographie (EEG). L'EEG mesure directement et d’une manière non invasive les signaux du cerveau avec une haute résolution temporelle. L’activation électrique d’une région dans le cerveau est modélisée par un dipôle de courant. Le principal objectif de l’EEG est le suivi de l'activité cérébrale pendant une tâche spécifique et la localisation/reconstruction des dipôles sources dans le cerveau. Il est utilisé à la fois dans la pratique et dans les recherches en neuroscience. Le processus de localisation des sources implique la résolution d'un problème inverse qui nécessite des modèles de la solution du problème direct. Le problème direct concerne la prédiction du potentiel électrique, résultant de l'activité cérébrale, sur le scalp à partir d'une répartition des sources données dans le cerveau. La précision de la localisation des sources dépend largement des performances de la solution du problème direct, qui est liée à la précision du modèle de tête, du modèle des sources ainsi que de la méthode de résolution du problème direct. Actuellement en pratique, pour des raisons de simplicité de calcul et de rapidité, les algorithmes EEG utilisent principalement le modèle de tête sphérique multicouche ou la méthode des éléments de frontière pour résoudre le problème direct. L’amélioration de la résolution en EEG nécessite l’utilisation de modèles de têtes plus réalistes qui prennent en considération d’avantages de paramètres tels que l’inhomogénéité et l’anisotropie des tissus. C’est pour ces raisons que la méthode des éléments finis (FEM) est la mieux adaptée et a attiré l’attention de plusieurs chercheurs. Néanmoins, avec la discrétisation de la FEM, les sources peuvent présenter une singularité numérique, ceci impacte négativement la solution du problème direct. Afin de remédier à ce problème des techniques tel que la méthode directe, la méthode de soustraction et la méthode de Saint Venant sont utilisées pour traiter la singularité. Cependant, toutes ces méthodes montrent des instabilités numériques dans le cas de sources situées à proximité des interfaces des tissus du cerveau. Pour y remédier une amélioration a été apportée à la méthode de Saint Venant au cours de cette thèse. Le rapport donne un aperçu sur l’activité cérébrale, un rappel de la FEM, son application pour la résolution du problème direct en EEG, le traitement de la singularité numérique et des instabilités près des interfaces, puis une présentation de la version modifiée de Saint-Venant, proposée et mise en œuvre dans ce travail. Nous validerons les résultats de la méthode modifiée de Saint-Venant dans des modèles de têtes sphériques multicouches et des modèles à géométries réelles. Pour finir, on testera cette méthode dans les outils et logiciels actuellement utilisés dans la pratique pour la localisation des zones activé dans le cerveau et nous montrerons les améliorations qui peuvent être apportées en utilisant notre approche de la méthode de Saint Venant modifiée. / Understanding the brain functions is one of the major challenges of neuroscience. To apprehend this organ in vivo many devices are developed, among them the electroencephalography (EEG). EEG measures directly and noninvasively the brain signals with high time resolution. The electrical activation of a region in the brain is modeled by a current dipole. The main objective of the EEG is monitoring the brain activity during a specific task and the location/reconstruction of the dipole sources within the brain. It is used both in practice and in research in neuroscience. The source’s localization process consists of solving an inverse problem that requires models of the solution of the direct or forward problem. The forward problem is the prediction of the electric potential on the scalp from a distribution sources in the brain. The accuracy of the source’s localization depends largely on the performance of the forward problem’s solution, which is related to the accuracy of the head model, the source model and the related method used to solve the forward problem. Currently in practice for reasons of computational simplicity and speed, EEG codes use mainly the multilayered spherical head model or the boundary element method for solving the forward problem. Improving the EEG’s source localization requires the use of more realistic head models which take into account more parameters such as inhomogeneity and anisotropy of the tissues. For these reasons the finite element method (FEM) is best suited and attracted the attention of many researchers. Nevertheless, with the FEM discretization, the sources may bring a numerical singularity; this negatively impacts the solution of the forward problem. To treat this problem some techniques such as the direct method, the subtraction method and the method of Saint-Venant are developed. However, all these methods show numerical instabilities in the case from sources close to the interfaces of brain tissue. To remedy these instabilities a modification was made on the Saint-Venant’s method. The report provides an overview on brain activity, a reminder of the FEM, its application for solving the forward problem in EEG, processing to treat the numerical singularity of the source and the instability near interfaces using the modified method of the Saint-Venant. We validate the results of the modified Venant’s method in models of multilayered spherical head and models with real geometries. Finally, we will test this approach in tools and software currently used in practice for locating areas activated in the brain and shows the improvements that can be made using the method of modified Saint-Venant.
732

Une approche distribuée pour les problèmes de couverture dans les systèmes hautement dynamiques. / A distributed approach for covering problems in highly dynamic systems

Kaaouachi, Mohamed Hamza 12 January 2016 (has links)
Un système distribué est un système composé d'éléments de calcul autonomes dotés de capacité de communication. Il s'agit d'un modèle commun pour l'étude des réseaux. L'évolution rapide des réseaux sans fils et/ou mobiles aussi bien dans la vie quotidienne que dans la recherche amène progressivement à intégrer la dynamique (i.e. l'évolution dans le temps de la connectivité) dans les systèmes distribués. Concrètement, cela revient à ajouter l'hypothèse que les capacités de communication des éléments du système peuvent varier dans le temps. De nombreux modèles considèrent ainsi la dynamique comme composante à part entière du système (et non pas comme une faute). De manière récente, une nouvelle approche, appelée graphe variant dans le temps, tente d'unifier tous ces modèles dans un formalisme commun qui permet de classifier les systèmes en fonction de leurs propriétés de connexité temporelle. Dans cette thèse, nous nous intéressons à des systèmes distribués hautement dynamiques dans lesquels les hypothèses de connexité sont minimalistes. Plus précisément, nous concentrons nos efforts sur les systèmes connexes à travers le temps dans lesquels la seule garantie est que tout élément du système peut infiniment souvent envoyer un message à tout autre (sans garantie sur la pérennité de la route utilisée ni sur le délai de communication). Nous nous intéressons plus particulièrement aux problèmes de couverture (par exemple, ensemble dominant minimal, couplage maximal, ensemble indépendant maximal, ...) dans ces systèmes distribués hautement dynamiques. Les contributions de cette thèse dans ce contexte sont les suivantes. Nous proposons tout d'abord une nouvelle définition pour les problèmes de couverture qui est plus adaptée aux systèmes distribués hautement dynamiques que les définitions existantes. Dans un deuxième temps, nous fournissons un outil générique qui permet de faciliter les preuves de résultats d'impossibilité dans les systèmes distribués dynamiques. Nous appliquons cet outil pour prouver plusieurs résultats d'impossibilité à propos de problèmes de couverture. Ensuite, nous proposons une nouvelle mesure de complexité en temps qui permet de comparer équitablement les performances de protocoles dans les systèmes distribués dynamiques. Enfin, nous donnons un algorithme de construction d'un ensemble dominant minimal dans les systèmes distribués hautement dynamiques. / A distributed system is a system of autonomous computing components endowed with communication abilities. This is a common model for the study of networks. The quick evolution of wireless and mobile network both in everyday life and in research gradually leads to take in account the dynamics (i.e. the evolution over time) in distributed systems. Concretely, this means to add the assumption that the communication abilities of the components of the system may vary over time. Many models consider the dynamics as an integral component of the system (and not as a fault). Recently, a new approach, called time-varying graph, attempts to unify all these models in a common formalism which allows the classification systems based on their temporal connectivity properties. In this thesis, we are interested in highly dynamic distributed systems with minimal connectivity assumptions. Specifically, we focus on connected over time systems where the only guarantee is that any element of the system can infinitely often send a message to any other (no guarantee are provided on the sustainability of the used path nor on the time communication). We are particularly interested in covering problems (e.g., minimal dominanting set, maximal matching, maximal independent set, ...) in these highly dynamic distributed systems. The contributions of this thesis in this context are as follows. We first propose a new definition for the covering problems which is more suited to highly dynamic distributed systems that the existing definitions. Secondly, we provide a generic tool to simplify proof of impossibility results in dynamic distributed systems. We use this tool to prove some impossibility results of covering problems. Then, we propose a new time complexity measure to fairly compare the algorithms performance in dynamic distributed systems. Finally, we give an algorithm that compute a minimal dominating set in highly dynamic distributed systems.
733

K-Separator problem / Problème de k-Séparateur

Mohamed Sidi, Mohamed Ahmed 04 December 2014 (has links)
Considérons un graphe G = (V,E,w) non orienté dont les sommets sont pondérés et un entier k. Le problème à étudier consiste à la construction des algorithmes afin de déterminer le nombre minimum de nœuds qu’il faut enlever au graphe G pour que toutes les composantes connexes restantes contiennent chacune au plus k-sommets. Ce problème nous l’appelons problème de k-Séparateur et on désigne par k-séparateur le sous-ensemble recherché. Il est une généralisation du Vertex Cover qui correspond au cas k = 1 (nombre minimum de sommets intersectant toutes les arêtes du graphe) / Let G be a vertex-weighted undirected graph. We aim to compute a minimum weight subset of vertices whose removal leads to a graph where the size of each connected component is less than or equal to a given positive number k. If k = 1 we get the classical vertex cover problem. Many formulations are proposed for the problem. The linear relaxations of these formulations are theoretically compared. A polyhedral study is proposed (valid inequalities, facets, separation algorithms). It is shown that the problem can be solved in polynomial time for many special cases including the path, the cycle and the tree cases and also for graphs not containing some special induced sub-graphs. Some (k + 1)-approximation algorithms are also exhibited. Most of the algorithms are implemented and compared. The k-separator problem has many applications. If vertex weights are equal to 1, the size of a minimum k-separator can be used to evaluate the robustness of a graph or a network. Another application consists in partitioning a graph/network into different sub-graphs with respect to different criteria. For example, in the context of social networks, many approaches are proposed to detect communities. By solving a minimum k-separator problem, we get different connected components that may represent communities. The k-separator vertices represent persons making connections between communities. The k-separator problem can then be seen as a special partitioning/clustering graph problem
734

Relaxations in mixed-integer quadratically constrained programming and robust programming / Relaxations en programmation mixte en nombres entiers avec contraintes quadratiques et en programmation robuste

Wang, Guanglei 28 November 2016 (has links)
De nombreux problèmes de la vie réelle sont exprimés sous la forme de décisions à prendre à l’aide de l’information accessible dans le but d’atteindre certains objectifs. La programmation numérique a prouvé être un outil efficace pour modéliser et résoudre une grande variété de problèmes de ce type. Cependant, de nombreux problèmes en apparence faciles sont encore durs à résoudre. Et même des problèmes faciles de programmation linéaire deviennent durs avec l’incertitude de l’information disponible. Motivés par un problème de télécommunication où l’on doit associer des machines virtuelles à des serveurs tout en minimisant les coûts, nous avons employé plusieurs outils de programmation mathématique dans le but de résoudre efficacement le problème, et développé de nouveaux outils pour des problèmes plus généraux. Dans l’ensemble, résumons les principaux résultats de cette thèse comme suit. Une formulation exacte et plusieurs reformulations pour le problème d’affectation de machines virtuelles dans le cloud sont données. Nous utilisons plusieurs inégalités valides pour renforcer la formulation exacte, accélérant ainsi l’algorithme de résolution de manière significative. Nous donnons en outre un résultat géométrique sur la qualité de la borne lagrangienne montrant qu’elle est généralement beaucoup plus forte que la borne de la relaxation continue. Une hiérarchie de relaxation est également proposée en considérant une séquence de couverture de l’ensemble de la demande. Ensuite, nous introduisons une nouvelle formulation induite par les symétries du problème. Cette formulation permet de réduire considérablement le nombre de termes bilinéaires dans le modèle, et comme prévu, semble plus efficace que les modèles précédents. Deux approches sont développées pour la construction d’enveloppes convexes et concaves pour l’optimisation bilinéaire sur un hypercube. Nous établissons plusieurs connexions théoriques entre différentes techniques et nous discutons d’autres extensions possibles. Nous montrons que deux variantes de formulations pour approcher l’enveloppe convexe des fonctions bilinéaires sont équivalentes. Nous introduisons un nouveau paradigme sur les problèmes linéaires généraux avec des paramètres incertains. Nous proposons une hiérarchie convergente de problèmes d’optimisation robuste – approche robuste multipolaire, qui généralise les notions de robustesse statique, de robustesse d’affinement ajustable, et de robustesse entièrement ajustable. En outre, nous montrons que l’approche multipolaire peut générer une séquence de bornes supérieures et une séquence de bornes inférieures en même temps et les deux séquences convergent vers la valeur robuste des FARC sous certaines hypothèses modérées / Many real life problems are characterized by making decisions with current information to achieve certain objectives. Mathematical programming has been developed as a successful tool to model and solve a wide range of such problems. However, many seemingly easy problems remain challenging. And some easy problems such as linear programs can be difficult in the face of uncertainty. Motivated by a telecommunication problem where assignment decisions have to be made such that the cloud virtual machines are assigned to servers in a minimum-cost way, we employ several mathematical programming tools to solve the problem efficiently and develop new tools for general theoretical problems. In brief, our work can be summarized as follows. We provide an exact formulation and several reformulations on the cloud virtual machine assignment problem. Then several valid inequalities are used to strengthen the exact formulation, thereby accelerating the solution procedure significantly. In addition, an effective Lagrangian decomposition is proposed. We show that, the bounds providedby the proposed Lagrangian decomposition is strong, both theoretically and numerically. Finally, a symmetry-induced model is proposed which may reduce a large number of bilinear terms in some special cases. Motivated by the virtual machine assignment problem, we also investigate a couple of general methods on the approximation of convex and concave envelopes for bilinear optimization over a hypercube. We establish several theoretical connections between different techniques and prove the equivalence of two seeming different relaxed formulations. An interesting research direction is also discussed. To address issues of uncertainty, a novel paradigm on general linear problems with uncertain parameters are proposed. This paradigm, termed as multipolar robust optimization, generalizes notions of static robustness, affinely adjustable robustness, fully adjustable robustness and fills the gaps in-between. As consequences of this new paradigms, several known results are implied. Further, we prove that the multipolar approach can generate a sequence of upper bounds and a sequence of lower bounds at the same time and both sequences converge to the robust value of fully adjustable robust counterpart under some mild assumptions
735

Planifier et choisir un itinéraire en milieu urbain : approches plurielles d'un problème cognitif / Route planning in urban environment : multiple approaches of a cognitive problem

Grison, Elise 26 November 2015 (has links)
Planifier un itinéraire est une tâche réalisée quotidiennement pour nos déplacements. Bien que cette tâche soit routinière, les recherches dans le domaine de la résolution de problème et de la cognition spatiale ont révélé les stratégies adoptées et les ressources cognitives (e.g. mémoire de travail, capacités spatiales, fonctions exécutives) nécessaires à sa réalisation. Ainsi différents modèles cognitifs décrivant la planification en différentes étapes avec ou sans compétition entre stratégies ont été proposés pour expliquer la formation des plans de voyage (Gärling, Säisä, Böök & Lindberg, 1986, Cuntini, Di Fernando, Basso, Bisiacchi et Zorzi, 2008). L'étude plus écologique de la planification, c’est-à-dire en situation réelle, montre la mise en jeu de facteurs supplémentaires tels que les critères de sélection, des facteurs individuels et contextuel. Cependant à ce jour peu d'études se sont intéressées à la planification d'itinéraire en transports en commun, alors que la valorisation de ces modes est actuellement nécessaire pour répondre aux préoccupations environnementales et de congestion du réseau routier des grandes villes. Dès lors, une question est de savoir si les processus de planification et de choix d’itinéraires sont modifiés du fait de la spécificité des itinéraires en transports en commun (modes variés et changements de modes) et quelles sont les facteurs cognitifs, psycho-sociaux, et contextuels impliquées. Pour répondre à cette question, nous avons mené quatre études pour investiguer différentes dimensions de cette activité à l'aide de paradigmes et techniques variés telles que les mouvements oculaires (étude 1), l'entretien (étude 2), des choix forcés (étude 3) et la réalité virtuelle (étude 4). Ces études ont permis de mettre en évidence que la planification d'itinéraire à partir de cartes de réseaux de transports s'effectue en deux temps et qu'elle se complexifie avec l'augmentation du nombre de changements de lignes (étude 1). De plus, l'analyse de l'expérience des usagers (étude 2) et les résultats de mises en situations expérimentales (études 3 et 4) ont montré que le choix d'itinéraire dépend du contexte et du profil de l'usager (capacités spatiales, préférences, attitude, etc.). Les résultats permettent donc de proposer des préconisations pour adapter les aides à la planification en considérant les différents profils d'usagers afin de favoriser l'utilisation de ces modes. Enfin, sur le plan théorique, nos études montrent que la prise en compte uniquement de l'aspect cognitif pour modéliser la planification n’est pas suffisante et que considérer les différents profils d'usagers permet une modélisation plus complète de ce processus complexe. / Route planning is an everyday task performed when we want to travel. Even though it is a routine task, researches in problem-solving and spatial cognition domains have revealed that various strategies and cognitive resources are involved (e.g. working memory, spatial abilities, and executives' functions). Some models have been proposed to explain the formation of travel plans. They usually describe the planning process into different stages with or without competition between strategies (Gärling, Säisä, Böök & Lindberg, 1986, Cuntini, Di Fernando, Basso, Bisiacchi & Zorzi, 2008). More ecological studies, i.e. in real situations, have shown the implication of additional factors such as selection criteria, personal and contextual variables. To date however, few studies have taken an interest on the route planning using public transport, even though promote these modes is necessary considering environmental concerns and saturation of traffic in large cities. A question is whether planning and choice processes are modified due to special features of public transports (various modes and changes of modes) and which are the cognitive, psycho-social and contextual factors involved. To answer this question, we conducted four studies to investigate different dimensions of public transport planning activity using various methodologies and paradigms as eye-tracking (study 1), interview (study 2), two alternatives forced-choice (study 3) and virtual reality (study 4). The outcomes of these studies are that the route planning from a network map is a two-step process which becomes more complex with the number of changes of lines (study 1). The analyses of users' experience (study 2) and of different simulations (studies 3 and 4) show that the route choice depends both on the context and the user's profile (spatial abilities, preferences, attitudes, etc.). Results allow us to propose recommendation to better adapt assistance depending on various users profiles, in order to favour the use of public transports. Finally, on the theoretical side, our studies highlight that taking into account only the cognitive facet to build route-planning models is not sufficient, while considering different users' profiles provides a more complete picture of the processes involved.
736

Driven-Dissipative Quantum Many-Body Systems / Systèmes quantiques à plusieurs corps dissipatifs et pilotés

Scarlatella, Orazio 21 October 2019 (has links)
Ma thèse de doctorat était consacrée à l'étude des systèmes quantiques à plusieurs corps dissipatifs et pilotés. Ces systèmes représentent des plateformes naturelles pour explorer des questions fondamentales sur la matière dans des conditions de non-équilibre, tout en ayant un impact potentiel sur les technologies quantiques émergentes. Dans cette thèse, nous discutons d'une décomposition spectrale de fonctions de Green de systèmes ouverts markoviens, que nous appliquons à un modèle d'oscillateur quantique de van der Pol. Nous soulignons qu’une propriété de signe des fonctions spectrales des systèmes d’équilibre ne s’imposait pas dans le cas de systèmes ouverts, ce qui produisait une surprenante "densité d’états négative", avec des conséquences physiques directes. Nous étudions ensuite la transition de phase entre une phase normale et une phase superfluide dans un système prototype de bosons dissipatifs forcés sur un réseau. Cette transition est caractérisée par une criticité à fréquence finie correspondant à la rupture spontanée de l'invariance par translation dans le temps, qui n’a pas d’analogue dans des systèmes à l’équilibre. Nous discutons le diagramme de phase en champ moyen d'une phase isolante de Mott stabilisée par dissipation, potentiellement pertinente pour des expériences en cours. Nos résultats suggèrent qu'il existe un compromis entre la fidélité de la phase stationnaire à un isolant de Mott et la robustesse d'une telle phase à taux de saut fini. Enfin, nous présentons des développements concernant la théorie du champ moyen dynamique (DMFT) pour l’étude des systèmes à plusieurs corps dissipatifs et forcés. Nous introduisons DMFT dans le contexte des modèles dissipatifs et forcés et nous développons une méthode pour résoudre le problème auxiliaire d'une impureté couplée simultanément à un environnement markovien et à un environnement non-markovien. À titre de test, nous appliquons cette nouvelle méthode à un modèle simple d’impureté fermionique. / My PhD was devoted to the study of driven-dissipative quantum many-body systems. These systems represent natural platforms to explore fundamental questions about matter under non-equilibrium conditions, having at the same time a potential impact on emerging quantum technologies. In this thesis, we discuss a spectral decomposition of single-particle Green functions of Markovian open systems, that we applied to a model of a quantum van der Pol oscillator. We point out that a sign property of spectral functions of equilibrium systems doesn't hold in the case of open systems, resulting in a surprising ``negative density of states", with direct physical consequences. We study the phase transition between a normal and a superfluid phase in a prototype system of driven-dissipative bosons on a lattice. This transition is characterized by a finite-frequency criticality corresponding to the spontaneous break of time-translational invariance, which has no analog in equilibrium systems. Later, we discuss the mean-field phase diagram of a Mott insulating phase stabilized by dissipation, which is potentially relevant for ongoing experiments. Our results suggest that there is a trade off between the fidelity of the stationary phase to a Mott insulator and robustness of such a phase at finite hopping. Finally, we present some developments towards using dynamical mean field theory (DMFT) for studying driven-dissipative lattice systems. We introduce DMFT in the context of driven-dissipative models and developed a method to solve the auxiliary problem of a single impurity, coupled simultaneously to a Markovian and a non-Markovian environment. As a test, we applied this novel method to a simple model of a fermionic, single-mode impurity.
737

Modeling and Analysis of New Extensions for the News-Vendor Problem / Modélisation et Analyse de Nouvelles Extensions pour le Problème du Vendeur de Journaux

Ma, Shouyu 30 May 2016 (has links)
Le NVP (Problème du Vendeur de Journaux) a été étudiée de façon continue au cours des dernières décennies pour la prise de décision dans les industries manufacturières et de services. Bien que beaucoup de travail a été fait dans le domaine du NVP, l'intérêt sur ce sujet ne diminue pas. Alors que de nouvelles tendances émergent dans les affaires, par exemple flux internationaux de produits et de e-commerce, les détaillants sont confrontés à de nouvelles situations et la littérature de NVP doit être enrichi. Dans ce travail, nous proposons trois nouvelles extensions NVP compte tenu des questions importantes rencontrées par le NV: plusieurs soldes, variété de produits et d'assortiment ainsi que des problèmes de drop-shipping et de retour des produits qui sont liés à l'e-commerce. Notre travail ajoute de la valeur à partir des travails antérieurs dans plusieurs aspects: assouplissement des hypothèses, l'examen de nouvelles questions, de nouvelles formulations et de la méthodologie ainsi que des aperçus intéressants. Nous formulons les modèles et donner les conditions d'optimalité de la quantité de commande. Aperçus utiles sont fournis sur la base des études numériques.En particulier, pour faire face à surstock, nous présentons un modèle NVP avec le prix dépendant de la demande et de multiples soldes. Nous prouvons la concavité de l’espérance de profit sur la quantité avec les distributions générales de la demande. Le prix initial et les pourcentages de soldes sont également analysés. La variété de produit est traité dans un multi-produits Problème avec le transfert de la demande (les demandes de produits non inclus dans l'assortiment proposé dans le magasin sont en partie transférés aux produits conservés dans l'assortiment) et substitution de la demande entre les produits qui sont inclus dans l'assortiment, en faisant la détermination conjointe de décision optimale de l'assortiment et des quantités de commande pour les produits qui sont inclus dans l'assortiment, pour optimiser le profit total prévu. Pour e-commerce, nous considérons un NV qui gère à la fois un magasin physique et un canal de vente sur Internet qui est remplie par une option drop-shipping, ainsi que la possibilité de revendre les produits qui sont retournés par les consommateurs au cours de la saison de vente. La concavité de l’espérance profit est prouvée et différents résultats sont obtenus à partir d'une analyse numérique. / The NVP (News-Vendor Problem) has been continuously studied over the last decades for decision making in manufacturing and service industries. Although a lot of work has been done in the NVP area, interest on this topic does not decrease. As new trends emerge in business, e.g. international flow of products and e-commerce, retailers are facing new situations and the literature of NVP needs to be enriched. In this work, we propose three new NVP extensions considering important issues faced by the NV: multiple discounts, product variety and assortment as well as drop-shipping and product return problems that are related to e-commerce. Our work adds value from earlier achievements in several aspects: relaxation of assumptions, consideration of new issues, new formulations and methodology as well as interesting insights. We formulate the models and give the optimality conditions of the order quantity. Useful insights are provided based on numerical studies.In particular, for dealing with overstock, we present a NVP model with price-dependent demand and multiple discounts. We prove the concavity of the expected profit on order quantity under general demand distributions. The optimal initial price and discount scheme are also analyzed. The product variety is treated in a multi-product News-Vendor Problem with demand transfer (the demands of products not included in the assortment proposed in the store are partly transferred to products retained in the assortment) and demand substitution between products that are included in the assortment, by focusing on the joint determination of optimal product assortment decision and optimal order quantities for products that are included in the assortment to optimize the expected total profit. For e-commerce, we consider a NV managing both a physical store inventory and a sale channel on internet that is fulfilled by a drop-shipping option, as well as the possibility of reselling products that are returned by consumers during the selling season. The concavity of the expected profit is proven and various results are obtained from a numerical analysis.
738

Assimilation de données et recalage rapide de modèles mécaniques complexes / Data assimilation and fast model-updating of complex mechanicalmodels

Marchand, Basile 29 November 2017 (has links)
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires. / For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models.
739

Corrélations, intrication et dynamique des systèmes quantiques à N Corps : une étude variationnelle / Correlations, Entanglement and Time Evolution of Quantum many Body Systems : a variational study

Thibaut, Jérôme 09 July 2019 (has links)
Cette thèse porte sur l'étude de systèmes quantiques à N-corps à température nulle, où le comportement du système n'est alors soumis qu'aux effets quantiques. Je vais présenter ici une approche variationnelle développée avec Tommaso Roscilde, mon directeur de thèse, et Fabio Mezzacapo, mon co-encadrant de thèse, pour étudier ces systèmes.Cette approche se base sur une parametrisation de l’état quantique (dit Ansatz) à laquelle on applique une procédure d’optimisation variationnelle lui permettant de reproduire l'évolution d'un système soumis à l'équation de Schrödinger, tout en limitant le nombre de variables considérées. En considérant une évolution en temps imaginaire, il est possible d'étudier l'état fondamental d'un système. Je me suis ainsi intéressé à un modèle de chaîne XX de spins 1/2, dont les corrélations à longue portée rendent l'étude difficile, et adapté ainsi notre approche pour reproduire au mieux les corrélations et l'intrication du système. Je me suis ensuite intéressé au modèle J1-J2 dont la structure de signe non positive des coefficients de l’état quantique pose un défi important pour les approches Monte Carlo; et dans laquelle la frustration magnétique induit une transition de phase quantique (d’un état aux corrélations à longue porté vers un état non magnétique avec formation d’un cristal de lien de valence). Je me suis enfin intéressé à l'évolution temporelle d'un système à N-corps à partir d'un état non stationnaire. J'ai pu étudier la capacité de notre approche à reproduire la croissance linéaire de l’intrication dans le temps, ce qui est un obstacle fondamental pour les approches alternatives telles que le groupe de renormalisation de la matrice densité. / This thesis presents a study of quantum many-body systems at zero temperature, where the behavior of the system is purely driven by the quantum effects. I will introduce a variationnal approach developped with Tommaso Roscilde, my PhD supervisor, and Fabio Mezzacapo, my co-supervisor, in order to study these systems.This approach is based on a parametrisation of the quantum state (named Ansatz) on which we apply a variational optimisation, allowing us reproduce the system's evolution under Schrödinger's equation with a limited number of variables.By considering an imaginary-time evolution, it is possible to reconstruct the system's ground state. I focused on S=1/2 XX spin chain, where the long-range quantum correlations complicate a variational study; and I have specifically targeted our Ansatz in order to reproduce the correlations and the entanglement of the ground state. Moreover I considered the antiferromagnetic S=1/2 J1-J2 spin chain, where the non-trivial sign structure of the coefficients of the quantum state introduces an important challenge for the quantum Monte Carlo approach; and where the magnetic frustration induces a quantum phase transition (from a state with long range correlations to a non-magnetic state in the form of a valence-bond crystal).Finally I focused on the time evolution of a quantum many-body system starting from a non-stationary state. I studied the ability of our approach to reproduce the linear increase of the entanglement during time, which is a fondamental obstacle for other approaches such as the density-matrix renormalization group.
740

A multi-objective optimization framework for an inspection planning problem under uncertainty and breakdown / Un cadre d'optimisation multi-objectif pour les problèmes de planification des inspections avec prise en compte des incertitudes et défaillances

Mohammadi, Mehrdad 10 December 2015 (has links)
Dans les systèmes manufacturiers de plus en plus complexes, les variations du processus de fabrication et de ses paramètres opératoires ainsi que leurs effets sur l’ensemble du système doivent être maîtrisés, mesurés et contrôlés. Cette thèse propose un cadre d’optimisation pour l’élaboration d’un plan d’inspection optimal qui permet une prise de décision opérationnelle afin d’assurer la satisfaction des objectifs stratégiques (réduction des coûts, amélioration de la qualité, augmentation de la productivité, …). La prise de décision se divise en trois questions : Quoi contrôler ? Comment contrôler ? Quand contrôler ? Le manque d'informations fiables sur les processus de production et plusieurs facteurs environnementaux est devenu un problème important qui impose la prise en compte de certaines incertitudes lors de la planification des inspections. Cette thèse propose plusieurs formulations du problème d’optimisation de la planification du processus d'inspection, dans lesquelles, les paramètres sont incertains et les machines de production sont sujettes aux défaillances. Ce problème est formulé par des modèles de programmation mathématique avec les objectifs : minimiser le coût total de fabrication, maximiser la satisfaction du client, et minimiser le temps de la production totale. En outre, les méthodes Taguchi et Monte Carlo sont appliquées pour faire face aux incertitudes. En raison de la complexité des modèles proposés, les algorithmes de méta-heuristiques sont utilisés pour trouver les solutions optimales. / Quality inspection in multistage production systems (MPSs) has become an issue and this is because the MPS presents various possibilities for inspection. The problem of finding the best inspection plan is an “inspection planning problem”. The main simultaneous decisions in an inspection planning problem in a MPS are: 1) which quality characteristics need to be inspected, 2) what type of inspection should be performed for the selected quality characteristics, 3) where these inspections should be performed, and 4) how the inspections should be performed. In addition, lack of information about production processes and several environmental factors has become an important issue that imposes a degree of uncertainty to the inspection planning problem. This research provides an optimization framework to plan an inspection process in a MPS, wherein, input parameters are uncertain and inspection tools and production machines are subject to breakdown. This problem is formulated through several mixed-integer mathematical programming models with the objectives of minimizing total manufacturing cost, maximizing customer satisfaction, and minimizing total production time. Furthermore, Taguchi and Monte Carlo methods are applied to cope with the uncertainties. Due to the complexity of the proposed models, meta-heuristic algorithms are employed to find optimal or near-optimal solutions. Finally, this research implements the findings and methods of the inspection planning problem in another application as hub location problem. General and detail concluding remarks are provided for both inspection and hub location problems.

Page generated in 0.0815 seconds