• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 8
  • 1
  • 1
  • Tagged with
  • 18
  • 18
  • 12
  • 8
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Lexicographic refinements in possibilistic sequential decision-making models / Raffinements lexicographiques en prise de décision séquentielle possibiliste

El Khalfi, Zeineb 31 October 2017 (has links)
Ce travail contribue à la théorie de la décision possibiliste et plus précisément à la prise de décision séquentielle dans le cadre de la théorie des possibilités, à la fois au niveau théorique et pratique. Bien qu'attrayante pour sa capacité à résoudre les problèmes de décision qualitatifs, la théorie de la décision possibiliste souffre d'un inconvénient important : les critères d'utilité qualitatives possibilistes comparent les actions avec les opérateurs min et max, ce qui entraîne un effet de noyade. Pour surmonter ce manque de pouvoir décisionnel, plusieurs raffinements ont été proposés dans la littérature. Les raffinements lexicographiques sont particulièrement intéressants puisqu'ils permettent de bénéficier de l'arrière-plan de l'utilité espérée, tout en restant "qualitatifs". Cependant, ces raffinements ne sont définis que pour les problèmes de décision non séquentiels. Dans cette thèse, nous présentons des résultats sur l'extension des raffinements lexicographiques aux problèmes de décision séquentiels, en particulier aux Arbres de Décision et aux Processus Décisionnels de Markov possibilistes. Cela aboutit à des nouveaux algorithmes de planification plus "décisifs" que leurs contreparties possibilistes. Dans un premier temps, nous présentons des relations de préférence lexicographiques optimistes et pessimistes entre les politiques avec et sans utilités intermédiaires, qui raffinent respectivement les utilités possibilistes optimistes et pessimistes. Nous prouvons que les critères proposés satisfont le principe de l'efficacité de Pareto ainsi que la propriété de monotonie stricte. Cette dernière garantit la possibilité d'application d'un algorithme de programmation dynamique pour calculer des politiques optimales. Nous étudions tout d'abord l'optimisation lexicographique des politiques dans les Arbres de Décision possibilistes et les Processus Décisionnels de Markov à horizon fini. Nous fournissons des adaptations de l'algorithme de programmation dynamique qui calculent une politique optimale en temps polynomial. Ces algorithmes sont basés sur la comparaison lexicographique des matrices de trajectoires associées aux sous-politiques. Ce travail algorithmique est complété par une étude expérimentale qui montre la faisabilité et l'intérêt de l'approche proposée. Ensuite, nous prouvons que les critères lexicographiques bénéficient toujours d'une fondation en termes d'utilité espérée, et qu'ils peuvent être capturés par des utilités espérées infinitésimales. La dernière partie de notre travail est consacrée à l'optimisation des politiques dans les Processus Décisionnels de Markov (éventuellement infinis) stationnaires. Nous proposons un algorithme d'itération de la valeur pour le calcul des politiques optimales lexicographiques. De plus, nous étendons ces résultats au cas de l'horizon infini. La taille des matrices augmentant exponentiellement (ce qui est particulièrement problématique dans le cas de l'horizon infini), nous proposons un algorithme d'approximation qui se limite à la partie la plus intéressante de chaque matrice de trajectoires, à savoir les premières lignes et colonnes. Enfin, nous rapportons des résultats expérimentaux qui prouvent l'efficacité des algorithmes basés sur la troncation des matrices. / This work contributes to possibilistic decision theory and more specifically to sequential decision-making under possibilistic uncertainty, at both the theoretical and practical levels. Even though appealing for its ability to handle qualitative decision problems, possibilisitic decision theory suffers from an important drawback: qualitative possibilistic utility criteria compare acts through min and max operators, which leads to a drowning effect. To overcome this lack of decision power, several refinements have been proposed in the literature. Lexicographic refinements are particularly appealing since they allow to benefit from the expected utility background, while remaining "qualitative". However, these refinements are defined for the non-sequential decision problems only. In this thesis, we present results on the extension of the lexicographic preference relations to sequential decision problems, in particular, to possibilistic Decision trees and Markov Decision Processes. This leads to new planning algorithms that are more "decisive" than their original possibilistic counterparts. We first present optimistic and pessimistic lexicographic preference relations between policies with and without intermediate utilities that refine the optimistic and pessimistic qualitative utilities respectively. We prove that these new proposed criteria satisfy the principle of Pareto efficiency as well as the property of strict monotonicity. This latter guarantees that dynamic programming algorithm can be used for calculating lexicographic optimal policies. Considering the problem of policy optimization in possibilistic decision trees and finite-horizon Markov decision processes, we provide adaptations of dynamic programming algorithm that calculate lexicographic optimal policy in polynomial time. These algorithms are based on the lexicographic comparison of the matrices of trajectories associated to the sub-policies. This algorithmic work is completed with an experimental study that shows the feasibility and the interest of the proposed approach. Then we prove that the lexicographic criteria still benefit from an Expected Utility grounding, and can be represented by infinitesimal expected utilities. The last part of our work is devoted to policy optimization in (possibly infinite) stationary Markov Decision Processes. We propose a value iteration algorithm for the computation of lexicographic optimal policies. We extend these results to the infinite-horizon case. Since the size of the matrices increases exponentially (which is especially problematic in the infinite-horizon case), we thus propose an approximation algorithm which keeps the most interesting part of each matrix of trajectories, namely the first lines and columns. Finally, we reports experimental results that show the effectiveness of the algorithms based on the cutting of the matrices.
12

Reconnaissance de formes basée sur l'approche possibiliste dans les images mammographiques / Shape recognition based on possibilistic approach in mammographic images

Hmida, Marwa 09 December 2017 (has links)
Face à l'augmentation significative du taux de mortalité par cancer du sein chez les femmes ainsi que la croissance continue du nombre de mammographies réalisées chaque année, le diagnostic assisté par ordinateur devient de plus en plus impératif pour les experts. Dans notre travail de thèse, une attention particulière est accordée aux masses mammaires vu qu'elles représentent le signe de cancer du sein le plus couramment observé en mammographies. Néanmoins, ces images présentent un très faible contraste, ce qui fait que les frontières entre les tissus sains et les masses sont mal définies. C'est ainsi qu'il est difficile de pouvoir discerner avec précision ces masses et de leur définir un contour unique. En outre, la complexité et la grande variabilité des formes des masses mammaires rendent les tâches de diagnostic et de classification difficiles. Dans ce cadre, nous proposons un système d'aide au diagnostic dont le but est la segmentation de masses dans les régions d'intérêt et par la suite la classification de ces masses en deux catégories : bénignes et malignes. La première étape de segmentation est une étape assez délicate vu que les étapes postérieures à savoir la caractérisation et la classification y sont dépendantes. En effet, une mauvaise segmentation peut entrainer une mauvaise prise de décision. Un tel cas peut survenir en raison de l'incertitude et l'imprécision émanant de l'image mammographique. C'est pour cette raison que nous proposons une définition de contours flous permettant de prendre en compte ces types d'imperfections. Ces contours flous sont introduits dans l'énergie d'un contour actif pour modifier son mouvement et aboutir à une délimitation exacte des masses. Une fois les régions d'intérêt sont segmentées, nous présentons une méthode de classification de masses basée sur la théorie des possibilités qui permet de modéliser les ambigüités inhérentes aux connaissances exprimées par l'expert. En outre, cette méthode utilise essentiellement les descripteurs de forme pour caractériser les masses et décider de leur degré de gravité vu que la forme des masses constitue un bon indicateur de gravité.La validation et l'évaluation de ces deux méthodes sont réalisées en utilisant les régions d'intérêt contenant des masses extraites de la base MIAS. Les résultats obtenus sont très intéressants et les comparaisons effectuées ont mis en évidence leurs performances. / In view of the significant increase in breast cancer mortality rate among women as well as the continuous growth in number of mammograms performed each year, computer-aided diagnosis is becoming more and more imperative for experts. In our thesis work, special attention is given to breast masses as they represent the most common sign of breast cancer in mammograms. Nevertheless, mammographic images have very low contrast and breast masses possess ambiguous margins. Thus, it is difficult to distinguish them from the surrounding parenchymal. Moreover, the complexity and the large variability of breast mass shapes make diagnostic and classification challenging tasks.In this context, we propose a computer-aided diagnosis system which firstly segments masses in regions of interests and then classifies them as benign or malignant. Mass segmentation is a critical step in a computer-aided diagnosis system since it affects the performance of subsequent analysis steps namely feature analysis and classification. Indeed, poor segmentation may lead to poor decision making. Such a case may occur due to two types of imperfection: uncertainty and imprecision. Therefore, we propose to deal with these imperfections using fuzzy contours which are integrated in the energy of an active contour to get a fuzzy-energy based active contour model that is used for final delineation of mass.After mass segmentation, a classification method is proposed. This method is based on possibility theory which allows modeling the ambiguities inherent to the knowledge expressed by the expert. Moreover, since shape and margin characteristics are very important for differentiating between benign and malignant masses, the proposed method is essentially based on shape descriptors.The evaluation of the proposed methods was carried out using the regions of interest containing masses extracted from the MIAS base. The obtained results are very interesting and the comparisons made have demonstrated their performances.
13

CARS-Un système multi-agent pour la prise de décision dans des applications spatiotemporelles incertaines / CARS - A multi-agent framework to support the decision making in uncertain spatio-temporal real-world applications

Ben othmane, Amel 12 October 2017 (has links)
Récemment, plusieurs applications, dans lesquelles différentes entités interagissent dans un environnement dynamique, soulignent l’intérêt de l’utilisation des architectures multi-agents. Ces architectures offrent, dans ce cadre, un certain nombre d’avantages, tels que l’autonomie, la réactivité et la capacité de prise de décision. Elles manquent cependant de capacité sociale et de connaissances sur son environnement, notamment lorsqu’il s’agit d’un environnement dynamique. En effet, quand un agent interagit avec le monde réel, il doit prendre en compte les évènements qui peuvent survenir tout en considérant centaines contraintes telles que le temps et l’espace. En outre, les agents doivent faire face à l’incertitude liée aux applications réelles afin de fournir une représentation fidèle du monde réel. Dans le cadre de cette thèse, nous proposons un modèle formel de recommandation des plans qui améliore le processus de prise de décision des agents dans un environnement spatio-temporel et incertain. Pour formaliser les comportements cognitifs des agents dans notre système nommé CARS, en anglais ``Cognitive Agent-based Recommender System '', nous avons étendu l’architecture BDI qui se base sur le modèle `` Croyance-Désir-Intention'' pour prendre en compte les différents contextes liés à des applications réelles en particulier le contexte social. Par ailleurs, nous avons également utilisé la théorie possibiliste afin de considérer l’incertitude dans l’état motivationnel d’un agent (c’est à dire ses croyances, désirs, objectifs ou intentions). Pour répondre aux besoins des applications réelles, tels que les systèmes de recommandation relatives au trafic et navigation, nous proposons une représentation spatiotemporelle des croyances et des intentions d’un agent. Cette représentation permettra l’anticipation de certaines intentions, de manière à recommander un plan qui sera optimal pour un utilisateur. Compte tenu l’incomplétude/l’imprécision liée aux données spatiotemporelles, nous avons étendu le modèle proposé pour raisonner avec des croyances et intentions floues. Une évaluation du modèle proposé a été menée en utilisant une simulation multi-agent, dans un scenario réel de circulation routière. Cette simulation a offert un environnement virtuel qui a mis en lumière, après avoir testé les différentes fonctionnalités du modèle, les principaux points forts ainsi que leslacunes liées à l’architecture multi-agents proposée. / Recently, many real-world applications where different entities interact in a dynamic environment, consider the use of agents in their architectures due principally to their autonomy, reactivity and decision-making abilities. Though these systems can be made intelligent, using Artificial Intelligence (AI) techniques, agents still lack of social abilities and have limited knowledge of their environment and in particular when it comes to a dynamic environment. In fact, when operating in the real world, agents need to deal with unexpected events considering both changes in time and space. Moreover, agents must face the uncertainty, which pervades real-world scenarios in order to provide an accurate representation of the world. In this thesis, we introduce and evaluate a formal framework for recommending plans to agents in the decision making process, when they deal with uncertain spatio-temporal information. The agent-based architecture we propose to address this issue, called CARS (Cognitive Agent-based Recommender System), has been designed by extending the well-known Belief-Desire-Intention (BDI) architecture to incorporate further capabilities to support reasoning with different types of contextual information, including the social context. Uncertainty on the agent's beliefs, desires and intentions is modeled using possibility theory. To meet the requirements of real-world applications, e.g., traffic and navigation recommendation systems, we define a spatio-temporal representation of the agents' beliefs and intentions. Using such a formal framework, anticipatory reasoning about intentional dynamics can be performed with the aim to recommend an optimal plan to a certain user. Since spatio-temporal data is often considered as incomplete and/or vague, we extended the formal framework with a fuzzy representation of spatio-temporal beliefs and intentions. The framework is evaluated through an Agent Based Simulation (ABS) in a real-world traffic scenario. This ABS allowed us to create a virtual environment to test the impact of the different features of our framework as well as to evaluating the main strengths and weaknesses of the proposed agent architecture.
14

Využití vybraných metod umělé inteligence pro nalezení malých povodí nejvíce ohrožených povodněmi z přívalových dešťů / Use of selected artificial intelligence methods for finding small watersheds most at risk of flash floods

Ježík, Pavel January 2016 (has links)
In our region, heavy rains may occur virtually everywhere. Nowadays there are instruments to predict these events in sufficient advance, but without precise localisation, which is a problem. Present instruments for searching endangered watersheds are focused on operative evaluation of meteorological situation and actual precipitation forecast processing (nowcasting). The thesis brings quite different approach. Potentially endangered areas are detected with evaluation of long-term statistical variables (N-year discharges and rain characteristics) and properties of specific watershed. The whole issue is handled out of situation of actual danger, this attitude is so called off-line solution. The thesis describes a model based on selected artificial intelligence methods. The model forms the core of final map application. The use of model and final application is supposed to be used in area of preventive flood protection, and related investment decision-making. The model focuses on heavy rains and flash floods.
15

La prise en compte des incertitudes dans l’évaluation de la qualité environnementale des bâtiments tertiaires : démarche HQE® / taking account of uncertainties in the assessment of green tertiary buildings : french approach HQE®

Alhamwi, Hussam 12 December 2012 (has links)
Le secteur de la construction est considéré comme un des facteurs principaux qui affectent la dépense énergétique et les émissions des gaz à effet de serre. Dès lors, la valorisation de la qualité environnementale des bâtiments constitue une réponse importante aux enjeux du développement durable. Dans ce contexte, notre recherche aborde le problème de l'incertitude inhérente aux démarches HQE®, notamment dans l'évaluation de la qualité environnementale des bâtiments tertiaires. Notre étude s'appuie sur la théorie des possibilités qui présente des atouts intéressants au regard de notre problématique, notamment sa capacité à modéliser l'expertise humaine et la présentation simple et unique des incertitudes et des imprécisions sur la base d'un volume limité d'informations. Ce travail vise à associer une crédibilité à l'évaluation de la qualité environnementale du bâtiment en traitant des paramètres tant quantitatifs que qualitatifs. La modélisation des incertitudes permet aux concepteurs de mieux hiérarchiser les impacts des différents paramètres contribuant à l'amélioration de la qualité environnementale d'un bâtiment et d'identifier les informations qui nécessiteraient en priorité une instigation plus poussée afin de crédibiliser l'évaluation environnementale / It is well known that the construction sector is considered one of the main factors that affect the energy consumption and the emissions of greenhouse gases. Thus, the enhancement of the environmental quality of buildings is an important response to the challenges of sustainable development. In such context, this research discusses the problem of the uncertainty inherent in the French approach HQE®, particularly the assessment of the environmental quality of tertiary buildings. In fact, this study is based on possibility theory, which presents interesting advantages in terms of our problem, especially its ability to model human expertise or knowledge in addition to simple and unique presentation of uncertainties and inaccuracies on the basis of a limited amount of information. Moreover, this work aims to associate a credibility assessment of the environmental quality of buildings by handling two types of input parameters which are the quantitative and the qualitative ones. This uncertainty modeling offers the designers a better prioritization of the impacts of the different parameters, which thus contribute to the improvement of the environmental quality of a building, and identify the information that would require more instigation to enhance the credibility of the environmental assessment
16

Techniques non-additives d'estimation de la densité de probabilité / Non-additive techniques for probability density estimation

Nehme, Bilal 20 December 2010 (has links)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabi lité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les méthodes que nous proposons / This manuscript, proposes a new nonparametric method for estimating the probability density function. This estimation method combines the Schwartz distribution theory and the possibility theory. It is an extension of the kernel density estimator that leads to imprecise estimation. It is based on a new method for modeling neighborhood. The interval valued estimate it produces is a convex envelope of the Parzen-Rosenblatt estimates obtained with kernels belonging to a coherent convex family. We propose some theoretical properties of this new method. Among these properties, we have shown a kind of convergence of this estimator. We also shown a particular aptitude of this estimator to quantify the error due to random variation in observation. We also propose very low complexity algorithms to compute the proposed methods.
17

Méthodologie d’aide à la décision pour une gestion durable des risques d’origine naturelle en contexte incertain / Decision-support methodology for a sustainable management of natural hazard risk under uncertainty

Edjossan-Sossou, Abla Mimi 14 December 2015 (has links)
La gestion des risques d’origine naturelle est un défi stratégique majeur pour les collectivités territoriales en raison de l’impact négatif potentiel de ces risques sur leur développement. Dans la perspective d’une gestion durable de ces risques, l’élaboration de méthodes et d’outils d’aide à la décision multicritère pour l’évaluation de la durabilité des stratégies de gestion représente une thématique de recherche intéressante et d’actualité. Les principaux verrous scientifiques sous-jacents à cette thématique portent sur la nécessité de définir un cadre théorique pour l’évaluation de cette durabilité et la prise en compte d’incertitudes provenant de différentes sources (données d’entrée, choix méthodologiques, dynamique du contexte, etc.) susceptibles d'influer sur la qualité des résultats de l’évaluation et donc sur la prise de décision. D’où la nécessité d’une méthodologie pour la prise en compte des incertitudes dans le processus décisionnel afin de fournir des résultats les plus pertinents possibles aux décideurs. Pour lever ces verrous, cette thèse propose une méthodologie globale d’évaluation qui repose sur le concept de développement durable et intègre un ensemble de critères et indicateurs permettant de rendre compte des conséquences techniques, économiques, sociétales, environnementales et institutionnelles des stratégies de gestion. Les incertitudes sont quantifiées selon une approche probabiliste (Simulations Monte Carlo) ou possibiliste (théorie des possibilités) et propagées le long du processus d’évaluation par l’arithmétique de la théorie des intervalles. Elle propose également un simulateur pour évaluer les dommages liés aux inondations et permettre une estimation aussi bien déterministe qu’aléatoire de différents types de ces dommages à l’échelle d’une commune. Ces contributions ont été appliquées à une étude de cas sur la commune de Dieulouard où trois stratégies de gestion des risques liés aux inondations sont comparées (respect des prescriptions du plan de prévention des risques d’inondations pour la construction de tout nouveau bâtiment, réduction du niveau de l’aléa par la construction d’une digue, réduction de la vulnérabilité de tous les bâtiments en zone inondable par des dispositifs de protection individuelle). Les résultats permettent d’illustrer l’opérationnalité de la méthodologie de dégager des perspectives de recherche / Natural hazard risk management is a major strategic challenge for territorial authorities because of the potential adverse effects on their development that arise from the occurrence of such a kind of risks. With a view to sustainably managing these risks, the development of multicriteria decision-support methods and tools to evaluate the sustainability of risk management strategies is an interesting and topical research subject. The main underlying challenges of sustainability assessment are to define a theoretical framework that will enable assessing the sustainability, and to take into account inherent uncertainties that could derive from various sources (input data, methodological choices, dynamics of the context, etc.), and that could potentially influence the relevance of assessment results. Hence, there is a need to develop a methodology for handling uncertainties in the decision-making process in order to provide decision-makers with the most relevant results. The present research introduces an overall decision-support methodology for assessing the sustainability of risk management strategies that relies on the concept of sustainable development and includes a set of criteria and indicators for reporting on the technical, economic, societal, environmental as well as institutional outcomes of the strategies. Data uncertainties are quantified using probabilistic (Monte Carlo simulations) or possibilistic (possibility theory) approach, and are propagated along the evaluation process through interval arithmetic operations. Beyond that, a computational tool was designed to simulate, in a deterministic or uncertain way, various types of flood damages at a municipality scale. These contributions were applied to a case study regarding flood risk management in Dieulouard, which consists of comparing three management strategies (respecting constructive constraints for new buildings in hazard prone areas fixed by the flood risks prevention plan, constructing a dyke as a collective defence infrastructure, implementing individual protective measures for all buildings in hazard prone areas). This application demonstrates the practicality of the methodology, and highlights prospects for future works
18

Advanced methods and models in uncertainty for the order promising process in supply chain characterized by the lack of homogeneity in product

Grillo Espinoza, Hanzel 22 September 2019 (has links)
The Lack of Homogeneity in the Product (LHP) appears in productive processes with raw materials, which directly stem from nature and/or production processes with operations that confer heterogeneity to the characteristics of the outputs obtained, even when the inputs used are homogeneous. LHP appears in different sectors such as ceramic tile, horticulture, marble, snacks, among others. LHP becomes a managerial problem when customers require to be served with homogeneous product. Supply chains responsible to provide homogeneous product face the need to include classification activities in their productive processes to obtain sub-lots of homogeneous product. Due to the inherent LHP uncertainty, these homogeneous sub-lots will not be known until the product have been produced and classified. An improper management of the LHP can have a very negative impact on the customers' satisfaction due to inconsistencies in the answer to their requirements and also on the Supply Chain's efficiency. The Order Promising Process (OPP) appears as a key element for properly managing the LHP in order to ensure the matching of uncertain homogeneous supply with customer order proposals. The OPP refers to the set of business activities that are triggered to provide a response to the orders from customers. These activities are related to the acceptance/rejection decision, and to set delivery dates. For supply chains affected by the LHP, the OPP must consider the homogeneity as another requirement in the answer to the orders. Besides, due to the LHP inherent uncertainty, discrepancies between the real and planned homogeneous quantities might provoke that previously committed orders cannot be served. The Shortage Planning (SP) process intends to find alternatives in order to minimise the negative impact on customers and the supply chain. Considering LHP in the OPP brings a set of new challenging features to be addressed. The conventional approach of assuming homogeneity in the product for the master production schedule (MPS) and the quantities Available-To-Promise (ATP) derived from it is no longer adequate. Instead, both the MPS and ATP should be handled in terms of homogeneous sub-lots. Since the exact quantity of homogeneous product from the planned lots in the MPS is not exactly known until the classification activities have been performed, the ATP also inherits this uncertainty, bringing a new level of complexity. Non-homogeneous product cannot be accumulated in order to fulfil future incoming orders. Even more, if the product handled is perishable, the homogeneity management becomes considerably more complex. This is because the state of the product is dynamic with time and related variables to it, like quality, price, etc., could change with time. This situation could bring unexpected wasting costs apart from the shortages already mentioned. The perishability factor is itself another source of uncertainty associated to the LHP. This dissertation proposes a conceptual framework and different mathematical programming models and tools, in both deterministic and uncertainty environments, in order to support the OPP and SP under LHP's effect. The aim is to provide a reliable commitment with customer orders looking for a high service level not just in the due date and quantity but also in the homogeneity requirements. The modelling of the characteristics inherent to LHP under deterministic context constitutes itself one of the main contribution of this dissertation. Another novelty consists in the inclusion of uncertainty in the definition of homogeneous sub-lots, their quantities and their dynamic state and value. The uncertainty modelling approach proposed is mainly based on the application of fuzzy set theory and possibility theory. The proposed mathematical models and tools have been validated in real cases of SC, specifically in the ceramic tile sector for non perishables, and in the fruit sector for perishables. The results show a ... / La Falta de Homogeneidad en el Producto (LHP, por sus siglas del inglés ``Lack of Homogeneity in the Product'') aparece en procesos productivos con materias primas que derivan directamente de la naturaleza y/o procesos de producción con operaciones que confieren heterogeneidad a las características de los productos obtenidos, incluso cuando los insumos utilizados son homogéneos. La LHP aparece en diferentes sectores como la cerámica, horticultura, mármol, snacks, entre otros. Se convierte en un problema gerencial cuando los clientes requieren homogeneidad en el producto y las cadenas de suministro enfrentan la necesidad de incluir actividades de clasificación en sus procesos productivos para obtener sub-lotes de producto homogéneo. Debido a la incertidumbre inherente a la LHP, los sub-lotes homogéneos y su cantidad no serán conocidos hasta que el producto haya sido producido y clasificado. Una gestión inadecuada de la LHP puede tener un impacto muy negativo en la satisfacción de los clientes debido a inconsistencias en la respuesta a sus requerimientos y también en la eficacia de la Cadena de Suministro. El Proceso de Comprometer de Pedido (OPP, por sus siglas del inglés ``Order Promising Process'') aparece como un elemento clave para gestionar adecuadamente la LHP, con el fin de asegurar la coincidencia entre el suministro incierto de producto homogéneo y las propuestas de pedido del cliente. El OPP se refiere al conjunto de actividades empresariales realizadas para proporcionar una respuesta a las órdenes de los clientes. Estas actividades están relacionadas con las decisiones de aceptación/rechazo, y establecimiento de fechas de entrega para las órdenes del cliente. En las cadenas de suministro afectadas por la LHP, el OPP debe considerar la homogeneidad como otro requisito adicional en la respuesta a los pedidos. Además, debido a la incertidumbre intrínseca de la LHP, las discrepancias entre las cantidades homogéneas reales y planificadas podrían provocar que las órdenes comprometidas anteriormente no puedan ser completadas debido a la escasez de producto. El proceso de planificación de la escasez (SP, por sus siglas del inglés "Shortage Planning") se encarga de encontrar alternativas para minimizar este impacto negativo en los clientes y la cadena de suministro. Considerar la LHP dentro del OPP implica un conjunto nuevo de características desafiantes que deben ser abordadas. El enfoque convencional de asumir la homogeneidad en el producto para el programa maestro de producción (MPS, por sus siglas del inglés "Master Production Schedule") y las cantidades disponibles a comprometer (ATP, por sus siglas del inglés "Available-To-Promise") derivadas de él, no es adecuado. En cambio, tanto el MPS como el ATP deben manejarse en términos de sub-lotes homogéneos. Dado que la cantidad exacta de producto homogéneo de los lotes previstos en el MPS no se sabe exactamente hasta que se han realizado las actividades de clasificación, el ATP también hereda esta incertidumbre, trayendo un nuevo nivel de complejidad. El producto no homogéneo no se puede acumular para satisfacer futuras órdenes entrantes. Más aún, si el producto manipulado es perecedero, el manejo de la homogeneidad se vuelve mucho más complejo. Esto se debe a que el estado del producto es dinámico en el tiempo, y variables relacionadas como calidad, precio, etc., podrían también cambiar con el tiempo. Esta situación puede provocar costos inesperados de desperdicio aparte de la escasez ya mencionada. El factor de perecedero es en sí mismo otra fuente de incertidumbre asociada a la LHP. Esta disertación propone un marco conceptual y diferentes modelos y herramientas de programación matemática, tanto en entornos deterministas como de incertidumbre, para apoyar al OPP y SP considerando el efecto de LHP. El objetivo es proporcionar un compromiso fiable con los pedidos de los clientes en busca de un alto nivel de servicio no s / La Falta d'Homogeneïtat en el Producte (LHP, per les seues sigles de l'anglés ''Lack of Homogeneity in the Product'') apareix en processos productius amb matèries primes que deriven directament de la natura i/o processos de producció amb operacions que conferixen heterogeneïtat a les característiques dels productes obtinguts, fins i tot quan les entrades utilitzades són homogènies . La LHP apareix en diferents sectors com la ceràmica, horticultura, marbre, snacks, entre altres. Es convertix en un problema gerencial quan els clients requereixen homogeneïtat en el producte i les cadenes de subministrament enfronten la necessitat d'incloure activitats de classificació en els seus processos productius per a obtindre sublots de producte homogeni. A causa de la incertesa inherent a la LHP, els sublots homogenis i la seua quantitat no seran coneguts fins que el producte haja sigut produït i classificat. Una gestió inadequada de la LHP pot tindre un impacte molt negatiu en la satisfacció dels clients degut a inconsistències en la resposta als seus requeriments i també en l'eficàcia de la Cadena de Subministrament. El Procés de Comprometre Comandes (OPP, per les seues sigles de l'anglés ''Order Promising Process'') apareix com un element clau per a gestionar adequadament la LHP, a fi d'assegurar la coincidència entre el subministrament incert de producte homogeni i les propostes de comanda del client. L'OPP es refereix al conjunt d'activitats empresarials realitzades per a proporcionar una resposta a les ordres dels clients. Aquestes activitats estan relacionades amb les decisions d'acceptació/rebuig, i establiment de dates de lliurament per a les ordres del client. En les cadenes de subministrament afectades per la LHP, l'OPP ha de considerar l'homogeneïtat com un altre requisit addicional en la resposta a les comandes. A més, a causa de la incertesa intrínseca de la LHP, les discrepàncies entre les quantitats homogènies reals i planificades podrien provocar que les ordres compromeses anteriorment no puguen ser completades a causa de l'escassetat de producte. El procés de planificació de l'escassetat (SP, per les seues sigles de l'anglés "Shortage Planning") s'encarrega de trobar alternatives per a minimitzar aquest impacte negatiu en els clients i en la cadena de subministrament. Considerar la LHP dins de l'OPP implica un conjunt nou de característiques desafiants que han de ser abordades. L'enfocament convencional d'assumir l'homogeneïtat en el producte per al programa mestre de producció (MPS, per les seues sigles de l'anglés "Master Production Schedule") i les quantitats disponibles a comprometre (ATP, per les seues sigles de l'anglés "Available-To-Promise") derivades d'ell, no és adequat. En canvi, tant el MPS com l'ATP han de manejar-se en termes de sublots homogenis. Atés que la quantitat exacta de producte homogeni dels lots previstos en el MPS no se sap exactament fins que s'han realitzat les activitats de classificació, l'ATP també hereta aquesta incertesa, portant un nou nivell de complexitat. El producte no homogeni no es pot acumular per a satisfer futures ordees entrants. Més encara, si el producte manipulat és perible, el maneig de l'homogeneïtat es torna molt més complex. Açò es deu al fet que l'estat del producte és dinàmic en el temps, i variables relacionades com qualitat, preu, etc., podrien també canviar amb el temps. Aquesta situació pot provocar costos inesperats de rebuig a banda de l'escassetat ja esmentada. El factor de perible és en si mateix un altra font d'incertesa associada a la LHP. Aquesta dissertació proposa un marc conceptual i diferents models i eines de programació matemàtica, tant en entorns deterministes com d'incertesa, per a recolzar a l'OPP i SP considerant l'efecte de LHP. L'objectiu és proporcionar un compromís fiable amb les comandes dels clients a la recerca d'un alt nivell de servei no sols en la data i la quantitat esperades, s / Grillo Espinoza, H. (2017). Advanced methods and models in uncertainty for the order promising process in supply chain characterized by the lack of homogeneity in product [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/91110 / TESIS

Page generated in 0.4594 seconds