51 |
Sur le conditionnement des modèles génétiques de réservoirs chenalisés méandriformes à des données de puits / On the conditioning of process-based channelized meandering reservoir models on well dataBubnova, Anna 11 December 2018 (has links)
Les modèles génétiques de réservoirs sont construits par la simulation des principaux processus de sédimentation dans le temps. En particulier, les modèles tridimensionnels de systèmes chenalisés méandriformes peuvent être construits à partir de trois processus principaux : la migration du chenal, l’aggradation du système et les avulsions, comme c’est réalisé dans le logiciel Flumy pour les environnements fluviatiles. Pour une utilisation opérationnelle, par exemple la simulation d'écoulements, ces simulations doivent être conditionnées aux données d'exploration disponibles (diagraphie de puits, sismique, …). Le travail présenté ici, basé largement sur des développements antérieurs, se concentre sur le conditionnement du modèle Flumy aux données de puits.Deux questions principales ont été examinées au cours de cette thèse. La première concerne la reproduction des données connues aux emplacements des puits. Cela se fait actuellement par une procédure de "conditionnement dynamique" qui consiste à adapter les processus du modèle pendant le déroulement de la simulation. Par exemple, le dépôt de sable aux emplacements de puits est favorisé, lorsque cela est souhaité, par une adaptation des processus de migration ou d'avulsion. Cependant, la manière dont les processus sont adaptés peut générer des effets indésirables et réduire le réalisme du modèle. Une étude approfondie a été réalisée afin d'identifier et d'analyser les impacts indésirables du conditionnement dynamique. Les impacts ont été observés à la fois à l'emplacement des puits et dans tout le modèle de blocs. Des développements ont été réalisés pour améliorer les algorithmes existants.La deuxième question concerne la détermination des paramètres d’entrée du modèle, qui doivent être cohérents avec les données de puits. Un outil spécial est intégré à Flumy - le "Non-Expert User Calculator" (Nexus) - qui permet de définir les paramètres de simulation à partir de trois paramètres clés : la proportion de sable, la profondeur maximale du chenal et l’extension latérale des corps sableux. Cependant, les réservoirs naturels comprennent souvent plusieurs unités stratigraphiques ayant leurs propres caractéristiques géologiques. L'identification de telles unités dans le domaine étudié est d'une importance primordiale avant de lancer une simulation conditionnelle avec des paramètres cohérents pour chaque unité. Une nouvelle méthode de détermination des unités stratigraphiques optimales à partir des données de puits est proposée. Elle est basée sur la Classification géostatistique hiérarchique appliquée à la courbe de proportion verticale (VPC) globale des puits. Les unités stratigraphiques ont pu être détectées à partir d'exemples de données synthétiques et de données de terrain, même lorsque la VPC globale des puits n'était pas visuellement représentative. / Process-based reservoir models are generated by the simulation of the main sedimentation processes in time. In particular, three-dimensional models of meandering channelized systems can be constructed from three main processes: migration of the channel, aggradation of the system and avulsions, as it is performed in Flumy software for fluvial environments. For an operational use, for instance flow simulation, these simulations need to be conditioned to available exploration data (well logging, seismic, …). The work presented here, largely based on previous developments, focuses on the conditioning of the Flumy model to well data.Two main questions have been considered during this thesis. The major one concerns the reproduction of known data at well locations. This is currently done by a "dynamic conditioning" procedure which consists in adapting the model processes while the simulation is running. For instance, the deposition of sand at well locations is favored, when desired, by an adaptation of migration or avulsion processes. However, the way the processes are adapted may generate undesirable effects and could reduce the model realism. A thorough study has been conducted in order to identify and analyze undesirable impacts of the dynamic conditioning. Such impacts were observed to be present both at the location of wells and throughout the block model. Developments have been made in order to improve the existing algorithms.The second question is related to the determination of the input model parameters, which should be consistent with the well data. A special tool is integrated in Flumy – the Non Expert User calculator (Nexus) – which permits to define the simulation parameters set from three key parameters: the sand proportion, the channel maximum depth and the sandbodies lateral extension. However, natural reservoirs often consist in several stratigraphic units with their own geological characteristics. The identification of such units within the studied domain is of prime importance before running a conditional simulation, with consistent parameters for each unit. A new method for determining optimal stratigraphic units from well data is proposed. It is based on the Hierarchical Geostatistical Clustering applied to the well global Vertical Proportion Curve (VPC). Stratigraphic units could be detected from synthetic and field data cases, even when the global well VPC was not visually representative.
|
52 |
Révéler le contenu latent du code source : à la découverte des topoi de programme / Unveiling source code latent knowledge : discovering program topoiIeva, Carlo 23 November 2018 (has links)
Le développement de projets open source à grande échelle implique de nombreux développeurs distincts qui contribuent à la création de référentiels de code volumineux. À titre d'exemple, la version de juillet 2017 du noyau Linux (version 4.12), qui représente près de 20 lignes MLOC (lignes de code), a demandé l'effort de 329 développeurs, marquant une croissance de 1 MLOC par rapport à la version précédente. Ces chiffres montrent que, lorsqu'un nouveau développeur souhaite devenir un contributeur, il fait face au problème de la compréhension d'une énorme quantité de code, organisée sous la forme d'un ensemble non classifié de fichiers et de fonctions.Organiser le code de manière plus abstraite, plus proche de l'homme, est une tentative qui a suscité l'intérêt de la communauté du génie logiciel. Malheureusement, il n’existe pas de recette miracle ou bien d’outil connu pouvant apporter une aide concrète dans la gestion de grands bases de code.Nous proposons une approche efficace à ce problème en extrayant automatiquement des topoi de programmes, c'est à dire des listes ordonnées de noms de fonctions associés à un index de mots pertinents. Comment se passe le tri? Notre approche, nommée FEAT, ne considère pas toutes les fonctions comme égales: certaines d'entre elles sont considérées comme une passerelle vers la compréhension de capacités de haut niveau observables d'un programme. Nous appelons ces fonctions spéciales points d’entrée et le critère de tri est basé sur la distance entre les fonctions du programme et les points d’entrée. Notre approche peut être résumée selon ses trois étapes principales : 1) Preprocessing. Le code source, avec ses commentaires, est analysé pour générer, pour chaque unité de code (un langage procédural ou une méthode orientée objet), un document textuel correspondant. En outre, une représentation graphique de la relation appelant-appelé (graphe d'appel) est également créée à cette étape. 2) Clustering. Les unités de code sont regroupées au moyen d’une classification par clustering hiérarchique par agglomération (HAC). 3) Sélection du point d’entrée. Dans le contexte de chaque cluster, les unités de code sont classées et celles placées à des positions plus élevées constitueront un topos de programme.La contribution de cette thèse est triple: 1) FEAT est une nouvelle approche entièrement automatisée pour l'extraction de topoi de programme, basée sur le regroupement d'unités directement à partir du code source. Pour exploiter HAC, nous proposons une distance hybride originale combinant des éléments structurels et sémantiques du code source. HAC requiert la sélection d’une partition parmi toutes celles produites tout au long du processus de regroupement. Notre approche utilise un critère hybride basé sur la graph modularity et la cohérence textuelle pour sélectionner automatiquement le paramètre approprié. 2) Des groupes d’unités de code doivent être analysés pour extraire le programme topoi. Nous définissons un ensemble d'éléments structurels obtenus à partir du code source et les utilisons pour créer une représentation alternative de clusters d'unités de code. L’analyse en composantes principales, qui permet de traiter des données multidimensionnelles, nous permet de mesurer la distance entre les unités de code et le point d’entrée idéal. Cette distance est la base du classement des unités de code présenté aux utilisateurs finaux. 3) Nous avons implémenté FEAT comme une plate-forme d’analyse logicielle polyvalente et réalisé une étude expérimentale sur une base ouverte de 600 projets logiciels. Au cours de l’évaluation, nous avons analysé FEAT sous plusieurs angles: l’étape de mise en grappe, l’efficacité de la découverte de topoi et l’évolutivité de l’approche. / During the development of long lifespan software systems, specification documents can become outdated or can even disappear due to the turnover of software developers. Implementing new software releases or checking whether some user requirements are still valid thus becomes challenging. The only reliable development artifact in this context is source code but understanding source code of large projects is a time- and effort- consuming activity. This challenging problem can be addressed by extracting high-level (observable) capabilities of software systems. By automatically mining the source code and the available source-level documentation, it becomes possible to provide a significant help to the software developer in his/her program understanding task.This thesis proposes a new method and a tool, called FEAT (FEature As Topoi), to address this problem. Our approach automatically extracts program topoi from source code analysis by using a three steps process: First, FEAT creates a model of a software system capturing both structural and semantic elements of the source code, augmented with code-level comments; Second, it creates groups of closely related functions through hierarchical agglomerative clustering; Third, within the context of every cluster, functions are ranked and selected, according to some structural properties, in order to form program topoi.The contributions of the thesis is three-fold:1) The notion of program topoi is introduced and discussed from a theoretical standpoint with respect to other notions used in program understanding ;2) At the core of the clustering method used in FEAT, we propose a new hybrid distance combining both semantic and structural elements automatically extracted from source code and comments. This distance is parametrized and the impact of the parameter is strongly assessed through a deep experimental evaluation ;3) Our tool FEAT has been assessed in collaboration with Software Heritage (SH), a large-scale ambitious initiative whose aim is to collect, preserve and, share all publicly available source code on earth. We performed a large experimental evaluation of FEAT on 600 open source projects of SH, coming from various domains and amounting to more than 25 MLOC (million lines of code).Our results show that FEAT can handle projects of size up to 4,000 functions and several hundreds of files, which opens the door for its large-scale adoption for program understanding.
|
53 |
Les fonds obligataires français et leurs performances / French bond funds and their performancesLe Xuan, Phuc 06 December 2011 (has links)
Sur le marché mondial de la gestion collective, la France occupe la deuxième place en termes du nombre de fonds et du montant d’actifs nets gérés. Malgré le rôle important des OPCVM obligataires dans la diversification des portefeuilles, ils sont néanmoins peu étudiés par rapport aux fonds actions. Notre recherche étudie la performance des fonds obligataires français sur une période de 20 ans, entre 1988 et 2007. Elle s’articule sur quatre chapitres. Le premier présente le panorama du développement des différentes catégories de fonds obligataires et leur couple risque / rentabilité.Le chapitre 2 construit un échantillon de 81 fonds grâces aux données généreusement fournies par la société Morningstar France. Après avoir testé l’homogénéité des distributions de rentabilités des fonds obligataires, on constate que les sous-catégories d’un même horizon de placement ont une distribution statistiquement identique. Ce qui permet de regrouper les fonds en trois catégories selon leur maturité : Long Terme, Moyen Terme et Court Terme. Le chapitre suivant se penche sur la non normalité des distributions de rentabilités (avec le test Jarque-Bera) et la recherche de l’origine de ce phénomène. Il y a absence de l’effet du mois de janvier ; les rentabilités sont non stationnaires et auto-corrélées. Les deux méthodes de correction pour auto-corrélation des rentabilités entrainent une augmentation du risque sans modifier la rentabilité moyenne ; mais ne modifient pas le classement des fonds. Le dernier chapitre est consacré à l’évaluation de la performance des fonds obligataires.Les douze mesures les plus utilisées par les professionnels conduisent à des classements des fonds quasiment identiques et à se demander si le ratio de Sharpe n’est pas finalement la seule mesure à utiliser. Sans aller jusque-là, la méthode de la « classification hiérarchique ascendante » (empruntée à la technique du marketing) permet de réduire à quatre les mesures de performance sans perte d’informations sur le classement des fonds entre eux. Ce chapitre confirme également la présence de la persistance de la performance à l’instar de certaines études anglo-saxonnes sur cette question. / At the world level, the French sector of mutual funds is the second for the number of fundsand the amount of net assets managed. Curiously enough regarding its size, the French bond fundshave been « forgotten » by the researchers and the present thesis seems to be the first one on thissubject. It studies their performances over a 20-year period (from January 1988 to December 2007)with the help of four chapters. The first one is a survey of that sector development and measures thereturn/risk ratio for the different kinds of bond funds. Chapter two presents the 81-funds samplegraciously given by Morningstar France. The analysis of the returns distributions shows that thedifferent funds with and without income distribution with the same maturity have the same statisticaldistribution; it enables to group the funds according to their maturity, namely Long Term, Middle Termand Short Term. Chapter three analyses the non-normality of distributions with the Jarque-Bera testand tries to find the origin of this phenomenon. There is no January effect but returns are nonstationaryand auto-correlated. The two correcting methods for that auto-correlation lead to anincrease of the measured risk without changing the average return and the funds rankings are notmodified. The last chapter deals with the performance measurement of these bond funds. The twelvemeasures most used by professionals give almost the same funds rankings. One can wonder if theSharpe ratio is not the unique relevant measure to use. A technique borrowed from the marketingscience called «cluster analysis» enables to reduce the twelve measures to only four without losinginformation on the funds rankings. This chapter also shows that the performance is persistent, resultalso found by some American researches on this question.
|
54 |
Les effets des dimensions culturelles sur l'évaluation des produits domestiques : cas des produits d'ameublement domestiques par les consommateurs européens / Cultural dimensions effects on products evaluation : furnishing domestic product evaluated by european consumerBoyom, Charlène 21 November 2012 (has links)
Cette thèse examine les effets de la culture sur l’évaluation et l’intention d’achat des produits domestiques versus étrangers dans deux pays (France et Royaume-Uni).Les individus interrogés ont reçu des informations sur deux produits d’ameublement(canapés) fabriqués soit en France soit au Royaume-Uni. Les produits étaient décrits comme étant supérieurs ou inférieurs à la concurrence étrangère. Il s’avère que les français et les anglais évaluent favorablement les produits domestiques (versus importés) lorsqu’ils sont supérieurs à la concurrence étrangère. En outre, le pays d’origine du produit va plus influencer l’intention d’achat des produits domestiques chez les anglais que chez les français. Les dimensions individualisme horizontal, distance hiérarchique et masculinité expliquent les effets de la culture sur l’évaluation et l’intention. Cela donne lieu à de nombreuses implications sur les stratégies de marketing international dont les solutions sont proposées dans cette recherche. / This thesis examines the effects of culture on the evaluation and purchase intention of domestic versus foreign products in two countries (France and United-Kingdom). Subjects received information about two furnishings products (sofas) manufactured in either France or the United-Kingdom. The products were described as being superior or inferior to foreign competition. It turns out that the French and English respondents evaluated favorably domestic products (versus imported ones) only when they are superior to competition. In addition, the country of origin of the product will most influence the intention to buy domestic products in United- Kingdom than in France. The horizontal dimension of individualism, the power distance and the masculinity explain the effects of culture on product evaluation and purchase intention. This gives rise to many implications on international marketing strategies whose solutions are proposed in this research.
|
55 |
Étude et réalisation d'une interface relationnelle pour un système de bases de données hiérarchiques multiplesHakim, Mohamed Nazir 05 September 1983 (has links) (PDF)
Présentation d'une telle interface (IMREL) permettant la transformation des structures de base de données hiérarchiques (IMAGE) afin de la consulter de manière relationnelle. Proposition d'une stratégie d'optimisation de requête par la recherche du chemin de cout minimal. Réalisation d'un compilateur de requête (CORREL).
|
56 |
Modélisation Hiérarchique de Surfaces à partir de Maillages Polyédriques et ApplicationsYvart, Alex 13 December 2004 (has links) (PDF)
La conception et fabrication assistées par ordinateur (CFAO) est incontournable dans la création et l'élaboration d'un produit. De même, l'infographie est couramment employée en effets spéciaux ou réalité virtuelle. Pourtant, chaque domaine utilise ses propres outils pour modéliser des surfaces. Pour répondre aux contraintes de ces deux types d'utilisations, nous proposons une nouvelle modélisation de surfaces polynomiales, interpolantes, globalement lisses (de plan tangent continu) et hiérarchique. Une surface lisse initiale est d'abord construite sur un maillage triangulaire, ce qui permet de traiter toutes les topologies. Des détails sont ensuite progressivement ajoutés par niveaux. Pour ce faire, chaque face est subdivisée en quatre sous-faces par insertion d'un sommet en milieu d'arête. Ce raffinement n'induit pas de modifications significatives sur la surface. Chaque détail est défini localement par rapport au précédent grâce à l'utilisation de repères locaux. Cette hiérarchie permet à l'ensemble des détails fins de suivre continûment le déplacement lors d'une édition de la surface. Deux applications sont ensuite proposées dans cet ouvrage : Tout d'abord, un modeleur 3D respectant la démarche créative des artistes. Celui-ci repose sur le calcul d'une forme globale progressivement affinée pour obtenir l'objet désiré, et offre la possibilité d'éditer les objets de manière intuitive en modifiant très peu de paramètres. Enfin, un outil de reconstruction est présenté pour modéliser des objets existants grâce à notre nouvelle représentation hiérarchique.
|
57 |
Statistical physics of disordered networks - Spin Glasses on hierarchical lattices and community inference on random graphsDecelle, Aurélien 11 October 2011 (has links) (PDF)
Cette thèse aborde des aspects fondamentales et appliquées de la théorie des verres de spin etplus généralement des systèmes complexes. Les premiers modèles théoriques décrivant la transitionvitreuse sont apparues dans les années 1970. Ceux-ci décrivaient les verres à l'aide d'interactionsaléatoires. Il a fallu alors plusieurs années avant qu'une théorie de champs moyen pour ces systèmessoient comprises. De nos jours il existe un grand nombre de modèles tombant dans la classe de" champs moyen " et qui sont bien compris à la fois analytiquement, mais également numériquementgrâce à des outils tels que le monte-carlo ou la méthode de la cavité. Par ailleurs il est bien connu quele groupe de renormalisation a échoué jusque ici à pouvoir prédire le comportement des observablescritiques dans les verres hors champs moyen. Nous avons donc choisi d'étudier des systèmes eninteraction à longue portée dont on ignore encore si la physique est identique à celle du champmoyen. Nous avons montré dans une première partie, la facilité avec laquelle on peut décrire unetransformation du groupe de renormalisation dans les systèmes ferromagnétiques en interaction àlongue portée dé finies sur le réseau hiérarchique de Dyson. Dans un second temps, nous avons portéenotre attention sur des modèles de verre de spin sur ce même réseau. Un début d'analyse sur cestransformations dans l'espace réel est présenté ainsi qu'une comparaison de la mesure de l'exposantcritique nu par différentes méthodes. Si la transformation décrite semble prometteuse il faut cependantnoter que celle-ci doit encore être améliorée afin d'être considérée comme une méthode valide pournotre système. Nous avons continué dans cette même direction en analysant un modèle d'énergiesaléatoires toujours en utilisant la topologie du réseau hiérarchique. Nous avons étudié numériquementce système dans lequel nous avons pu observer l'existence d'une transition de phase de type " criseentropique " tout à fait similaire à celle du REM de Derrida. Toutefois, notre modèle présente desdifférences importantes avec ce dernier telles que le comportement non-analytique de l'entropie à latransition, ainsi que l'émergence de " criticalité " dont la présence serait à confirmer par d'autres études.Nous montrons également à l'aide de notre méthode numérique comment la température critique dece système peut-être estimée de trois façon différentes.Dans une dernière partie nous avons abordé des problèmes liés aux systèmes complexes. Il aété remarqué récemment que les modèles étudiés dans divers domaines, par exemple la physique, labiologie ou l'informatique, étaient très proches les uns des autres. Ceci est particulièrement vrai dansl'optimisation combinatoire qui a en partie été étudiée par des méthodes de physique statistique. Cesméthodes issues de la théories des verres de spin et des verres structuraux ont été très utilisées pourétudier les transitions de phase qui ont lieux dans ces systèmes ainsi que pour inventer de nouveauxalgorithmes pour ces modèles. Nous avons étudié le problème de l'inférence de modules dans lesréseaux à l'aide de ces même méthodes. Nous présentons une analyse sur la détection des modules topologiques dans des réseaux aléatoires et démontrons la présence d'une transition de phase entre une région où ces modules sont indétectables et une région où ils sont détectables. Par ailleurs, nous avons implémenté pour ces problèmes un algorithme utilisant Belief Propagation afin d'inférer les modules ainsi que d'apprendre leurs propriétés en ayant pour unique information la structure du réseau. Finalementnous avons appliqué cet algorithme sur des réseaux construits à partir de données réelles et discutonsles développements à apporter à notre méthode.
|
58 |
Extraction de structures de documents par champs aléatoires conditionnels : application aux traitements des courriers manuscritsMontreuil, Florent 28 June 2011 (has links) (PDF)
Le traitement automatique des documents écrits est un domaine très actif dans le monde industriel. En effet, devant la masse de documents écrits à traiter, l'analyse automatique devient une nécessité mais les performances des systèmes actuels sont très variables en fonction des types de documents traités. Par exemple, le traitement des documents manuscrits non contraints reste une problématique non encore résolue à ce jour car il existe toujours deux verrous technologiques qui freinent la mise en place de systèmes fiables de traitement automatique des documents manuscrits : - la première concerne la reconnaissance des écritures manuscrites ; - la seconde est liée à l'existence d'une grande variabilité de structures de documents. Cette thèse porte sur la résolution de ce deuxième verrou dans le cas de documents manuscrits non contraints. Pour cela, nous avons développé des méthodes fiables et robustes d'analyse de structures de documents basées sur l'utilisation de Champs Aléatoires Conditionnels. Le choix des Champs Aléatoires Conditionnels est motivé par la capacité de ces modèles graphiques à prendre en compte les relations entre les différentes entités du document (mots, phrases, blocs, ...) et à intégrer des connaissances contextuelles. De plus, l'utilisation d'une modélisation probabiliste douée d'apprentissage permet de s'affranchir de la variabilité inhérente des documents à traiter. L'originalité de la thèse porte également sur la proposition d'une approche hiérarchique permettant l'extraction conjointe des structures physique (segmentation du document en blocs, lignes, ...) et logique (interprétation fonctionnelle de la structure physique) en combinant des caractéristiques physiques de bas niveau (position, représentation graphique, ...) et logiques de haut niveau (détection de mots clés). Les expérimentations effectuées sur des courriers manuscrits montrent que le modèle proposé représente une solution intéressante de par son caractère discriminant et sa capacité naturelle à intégrer et à contextualiser des caractéristiques de différentes natures.
|
59 |
Apprentissage par renforcement hiérarchique et factoriséKozlova, Olga 07 June 2010 (has links) (PDF)
Cette thèse a été réalisée dans un contexte de simulation industrielle qui s'intéresse aux problèmes de la modélisation du comportement humain dans les simulateurs d'entraînement militaire ou de sécurité civile. Nous avons abordé cette problématique sous l'angle de l'apprentissage et de la planification dans l'incertain, en modélisant les problèmes que nous traitons comme des problèmes stochastiques de grande taille dans le cadre des Processus de Décision Markoviens (MDP). Les MDP factorisés (FMDP) sont un cadre standard de représentation des problèmes séquentiels dans l'incertain, où l'état du système est décomposé en un ensemble de variables aléatoires. L'apprentissage par renforcement factorisé (FRL) est une approche d'apprentissage indirecte dans les FMDP où les fonctions de transition et de récompense sont inconnues a priori et doivent être apprises sous une forme factorisée. Par ailleurs, dans les problèmes où certaines combinaisons de variables n'existent pas, la représentation factorisée n'empêche pas la représentation de ces états que nous appelons impossibles. Dans la première contribution de cette thèse, nous montrons comment modéliser ce type de problèmes de manière théoriquement bien fondée. De plus, nous proposons une heuristique qui considère chaque état comme impossible tant qu'il n'a pas été visité. Nous en dérivons un algorithme dont les performances sont démontrées sur des problèmes jouet classiques dans la littérature, MAZE6 et BLOCKS WORLD, en comparaison avec l'approche standard. Pour traiter les MDP de grande taille, les MDP hiérarchiques (HMDP) sont aussi basés sur l'idée de la factorisation mais portent cette idée à un niveau supérieur. D'une factorisation d'état des FMDP, les HMDP passent à une factorisation de tâche, où un ensemble de situations similaires (définies par leurs buts) est représenté par un ensemble de sous-tâches partiellement définies. Autrement dit, il est possible de simplifier le problème en le décomposant en sous-problèmes plus petits et donc plus faciles à résoudre individuellement, mais aussi de réutiliser les sous-tâches afin d'accélérer la recherche de la solution globale. Le formalisme des options qui inclut des actions abstraites à durée étendue, permet de modéliser efficacement ce type d'architecture. La deuxième contribution de cette thèse est la proposition de TeXDYNA, un algorithme pour la résolution de MDP de grande taille dont la structure est inconnue. TeXDYNA combine les techniques d'abstraction hiérarchique de l'apprentissage par renforcement hiérarchique (HRL) et les techniques de factorisation de FRL pour décomposer hiérarchiquement le FMDP sur la base de la découverte automatique des sous-tâches directement à partir de la structure du problème qui est elle même apprise en interaction avec l'environnement. Nous évaluons TeXDYNA sur deux benchmarks, à savoir les problèmes TAXI et LIGHT BOX, et nous montrons que combiner l'abstraction d'information contextuelle dans le cadre des FMDP et la construction d'une hiérarchie dans le cadre des HMDP permet une compression très efficace des structures à apprendre, des calculs plus rapides et une meilleure vitesse de convergence. Finalement, nous estimons le potentiel et les limitations de TeXDYNA sur un problème jouet plus représentatif du domaine de la simulation industrielle.
|
60 |
A hierarchical and structured methodology to solve a general delivery problem : resolution of the basic sub-problems in the operational phaseLian, Lian 01 October 2010 (has links) (PDF)
Les entreprises de transport et de distribution sont confrontées à des difficultés d'exploitation liées à la taille et à la complexité de leur processus de livraison. Dans cette problématique, nous proposons une approche globale du Problème Général de Livraison (PGL).Au niveau méthodologique, c'est une approche hiérarchique (stratégique, tactique, opérationnelle) et structurée. Il s'agit de concevoir et d'exploiter un PGL en le décomposant en problèmes de livraisons élémentaires identifiés et le plus possible indépendants les uns des autres (problèmes de transport, de hubs, d'agences, de tournées...).Au niveau algorithmique, des modèles et algorithmes de résolution ont été proposés pour résoudre ces problèmes élémentaires de livraison dans la phase opérationnelle en tenant compte, en particulier, du nombre et de la capacité limités des moyens de transport.Au niveau applicatif, deux exemples réels sont traités : le système de livraison d'une entreprise de Vente à Distance et le système de livraison des casernes de pompiers du Nord de la France à partir de la pharmacie centrale de Lille
|
Page generated in 0.0556 seconds