• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 11
  • 1
  • Tagged with
  • 50
  • 17
  • 16
  • 16
  • 16
  • 16
  • 11
  • 11
  • 11
  • 11
  • 11
  • 8
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

New AHP methods for handling uncertainty within the Belief Function Theory / De nouvelles méthodes, fondées sur l'AHP, pour traiter l'incertitude à l'aide de la théorie des fonctions de croyance

Ennaceur, Amel 29 May 2015 (has links)
L'aide à la décision multicritères regroupe des méthodes permettant de choisir la meilleure solution en fonction des différents critères et compte tenu des préférences des experts. Toutefois, ces préférences sont parfois exprimées de manière imparfaite. La théorie des fonctions de croyance modélise de manière souple les connaissances et fournit des outils mathématiques pour gérer les différents types d'imperfection. Ainsi dans cette thèse, nous nous intéressons à la prise de décision multicritères dans un cadre incertain en étendant la méthode d’Analyse Hiérarchique des Procédés (AHP) à la théorie des fonctions de croyance. Après avoir présenté les fondements théoriques de la méthode AHP, nous avons proposé une approche qui permet de réduire le nombre de comparaisons par paires en jugeant des sous-ensembles de critères et d’alternatives. En outre, nous avons examiné la dépendance entre les critères et les alternatives. Dans ce cas, l'incertitude au niveau des évaluations est donnée sous forme de masses conditionnelles. Une autre partie de nos travaux répond aux critiques concernant la procédure de comparaison. Pour cela, nous avons proposé deux approches. La première technique d’élicitation des jugements de l’expert est fondée sur des distributions de masses, alors que la seconde s'appuie sur des relations de préférence. Dans ce cadre, nous avons introduit un modèle qui permet de générer des distributions de masse quantitatives à partir des relations de préférence. Ainsi, nous avons développé une méthode multicritères qui permet d'imiter le raisonnement humain. Cette méthode produit des résultats meilleurs et plus robustes que les approches de la littérature. / Multi-criteria decision making is the study of identifying and choosing alternatives to find the best solution based on different criteria and considering the decision makers’ expectations. However, the expert assessments are sometimes expressed imperfectly. Belief function theory can then provide more flexible and reliable tools to manage different types of imperfection. Thus, in this thesis, we are interested in multi-criteria decision making in an uncertain framework by extending the Analytic Hierarchy Process (AHP) method to the belief function framework. After presenting the theoretical foundations of the AHP method, we proposed an approach that reduces the number of pair-wise comparisons by judging subsets of criteria and alternatives. In addition, we examined the dependence between the criteria and alternatives. In this case, the uncertainty is given in terms of conditional mass distributions. Another part of the work provides critical concerning the pair-wise comparison process. For this purpose, we proposed two approaches. The first expert judgment elicitation method is based on mass distributions, while the second one is based on preference relations. In this context, we have introduced a model that is able to generate quantitative mass distributions from preference relations. Thus, we have developed a multi-criteria decision making method that imitates human reasoning. This method gives better and more robust results than existing approaches.
22

Une approche orientée utilisateur pour la supervision des orchestrations de services

Fakhfakh, Nabil 06 June 2012 (has links) (PDF)
La qualité de service est devenue aujourd'hui une notion incontournable dans le développement des applications logicielles, en particulier dans le cadre des architectures orientées services. Les travaux de cette thèse se focalisent sur la supervision de la qualité de service des applications orientées services, définies sous forme d'orchestrations de services. L'approche de supervision proposée dans ce contexte est générique. Elle repose sur des patrons de flux de contrôle des orchestrations de services pouvant être implémentés en intégralité ou en partie par tout langage d'orchestration de services. D'autre part, elle ne pose aucune restriction, ni sur les attributs qualité à surveiller par le système de supervision, ni sur leurs représentations. Cette approche de supervision se distingue des approches existantes par l'exploitation d'un modèle de préférences orienté utilisateur, permettant de représenter fidèlement la satisfaction de ce dernier. Le degré de satisfaction, issu du modèle de préférences, constitue une information de haut niveau représentant la qualité globale de l'orchestration étudiée. Sur la base de ce degré de satisfaction, de nouvelles stratégies de surveillance sont proposées afin de satisfaire les attentes de l'utilisateur. L'élaboration du modèle de préférences exploite la méthode d'aide à la décision multi-critères MACBETH étendue avec l'opérateur d'agrégation de l'intégrale de Choquet 2-additive. Une illustration de l'approche de supervision a été réalisée sur une orchestration de services, représentant un processus industriel dans le domaine du pilotage d'atelier de production. Les travaux de cette thèse ont été réalisés dans le cadre d'un projet R&D regroupant sept éditeurs de progiciels dans le domaine du MES (Manufacturing Execution System).
23

Optimisation du développement de nouveaux produits dans l'industrie pharmaceutique par algorithme génétique multicritère / Multiobjective optimization of New Product Development in the pharmaceutical industry

Perez Escobedo, José Luis 03 June 2010 (has links)
Le développement de nouveaux produits constitue une priorité stratégique de l'industrie pharmaceutique, en raison de la présence d'incertitudes, de la lourdeur des investissements mis en jeu, de l'interdépendance entre projets, de la disponibilité limitée des ressources, du nombre très élevé de décisions impliquées dû à la longueur des processus (de l'ordre d'une dizaine d'années) et de la nature combinatoire du problème. Formellement, le problème se pose ainsi : sélectionner des projets de Ret D parmi des projets candidats pour satisfaire plusieurs critères (rentabilité économique, temps de mise sur le marché) tout en considérant leur nature incertaine. Plus précisément, les points clés récurrents sont relatifs à la détermination des projets à développer une fois que les molécules cibles sont identifiées, leur ordre de traitement et le niveau de ressources à affecter. Dans ce contexte, une approche basée sur le couplage entre un simulateur à événements discrets stochastique (approche Monte Carlo) pour représenter la dynamique du système et un algorithme d'optimisation multicritère (de type NSGA II) pour choisir les produits est proposée. Un modèle par objets développé précédemment pour la conception et l'ordonnancement d'ateliers discontinus, de réutilisation aisée tant par les aspects de structure que de logique de fonctionnement, a été étendu pour intégrer le cas de la gestion de nouveaux produits. Deux cas d'étude illustrent et valident l'approche. Les résultats de simulation ont mis en évidence l'intérêt de trois critères d'évaluation de performance pour l'aide à la décision : le bénéfice actualisé d'une séquence, le risque associé et le temps de mise sur le marché. Ils ont été utilisés dans la formulation multiobjectif du problème d'optimisation. Dans ce contexte, des algorithmes génétiques sont particulièrement intéressants en raison de leur capacité à conduire directement au front de Pareto et à traiter l'aspect combinatoire. La variante NSGA II a été adaptée au problème pour prendre en compte à la fois le nombre et l'ordre de lancement des produits dans une séquence. A partir d'une analyse bicritère réalisée pour un cas d'étude représentatif sur différentes paires de critères pour l'optimisation bi- et tri-critère, la stratégie d'optimisation s'avère efficace et particulièrement élitiste pour détecter les séquences à considérer par le décideur. Seules quelques séquences sont détectées. Parmi elles, les portefeuilles à nombre élevé de produits provoquent des attentes et des retards au lancement ; ils sont éliminés par la stratégie d'optimistaion bicritère. Les petits portefeuilles qui réduisent les files d'attente et le temps de lancement sont ainsi préférés. Le temps se révèle un critère important à optimiser simultanément, mettant en évidence tout l'intérêt d'une optimisation tricritère. Enfin, l'ordre de lancement des produits est une variable majeure comme pour les problèmes d'ordonnancement d'atelier. / New Product Development (NPD) constitutes a challenging problem in the pharmaceutical industry, due to the characteristics of the development pipeline, namely, the presence of uncertainty, the high level of the involved capital costs, the interdependency between projects, the limited availability of resources, the overwhelming number of decisions due to the length of the time horizon (about 10 years) and the combinatorial nature of a portfolio. Formally, the NPD problem can be stated as follows: select a set of R and D projects from a pool of candidate projects in order to satisfy several criteria (economic profitability, time to market) while copying with the uncertain nature of the projects. More precisely, the recurrent key issues are to determine the projects to develop once target molecules have been identified, their order and the level of resources to assign. In this context, the proposed approach combines discrete event stochastic simulation (Monte Carlo approach) with multiobjective genetic algorithms (NSGA II type, Non-Sorted Genetic Algorithm II) to optimize the highly combinatorial portfolio management problem. An object-oriented model previously developed for batch plant scheduling and design is then extended to embed the case of new product management, which is particularly adequate for reuse of both structure and logic. Two case studies illustrate and validate the approach. From this simulation study, three performance evaluation criteria must be considered for decision making: the Net Present Value (NPV) of a sequence, its associated risk defined as the number of positive occurrences of NPV among the samples and the time to market. Theyv have been used in the multiobjective optimization formulation of the problem. In that context, Genetic Algorithms (GAs) are particularly attractive for treating this kind of problem, due to their ability to directly lead to the so-called Pareto front and to account for the combinatorial aspect. NSGA II has been adapted to the treated case for taking into account both the number of products in a sequence and the drug release order. From an analysis performed for a representative case study on the different pairs of criteria both for the bi- and tricriteria optimization, the optimization strategy turns out to be efficient and particularly elitist to detect the sequences which can be considered by the decision makers. Only a few sequences are detected. Among theses sequences, large portfolios cause resource queues and delays time to launch and are eliminated by the bicriteria optimization strategy. Small portfolio reduces queuing and time to launch appear as good candidates. The optimization strategy is interesting to detect the sequence candidates. Time is an important criterion to consider simultaneously with NPV and risk criteria. The order in which drugs are released in the pipeline is of great importance as with scheduling problems.
24

La résolution du problème de formation de cellules dans un contexte multicritère

Ahadri, Mohamed Zaki 01 1900 (has links)
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales. / Group technology techniques are now widely used in many manufacturing systems. Those techniques aim to decompose industrial systems into subsystems or cells of parts and machines. The problem of finding the most effectivegroup technology is formulated in operations research as the Cell Formation Problem. Several criteria can be used to specify the optimal solution such as flood intercellular, intracellular load balancing, etc. Solving this problem leads to several advantages such as reducing inventory and simplifying programming. The Cell Formation Problem is an NP-hard problem; therefore, exact methods cannot be used to solve large problems within a reasonabletime, whereas heuristics can generate solutions of lower quality, but in a reasonable execution time. We suggest in this work, three different metaheuristics to solve the cell formation problem having two objectives functions: cell autonomy and load balancing between the cells.We compare numerically these metaheuristics. Furthermore, for problems of smaller dimension that can be solved exactly with CPLEX, we verify that the metaheuristics can reach the optimal value.
25

L'intégration du développement durable dans les projets de quartier : le cas de la ville d'Hanoï / Integration of sustainable development into neighborhood projects : the case of Hanoi city

Bui, To Uyen 05 July 2012 (has links)
L’évolution de l’aménagement urbain s’oriente actuellement vers la démarche du développement durable. C’est à travers les projets à l’échelle locale – les quartiers durables –que sont initiées et appliquées les politiques des collectivités en la matière. Le nombre croissant et la diversité de ces opérations reflètent toutefois un manque d’études sur l’approche et le processus d’élaboration propre à cette échelle du quartier ainsi que la question de l’adaptation de la démarche dans chaque contexte urbain. A partir de ce constat, nous avons défini le sujet central de notre recherche comme le croisement et l’intégration de la notion de la durabilité dans la complexité des contextes locaux.Notre approche s’appuie sur un regard transversal et croisé des thématiques interdisciplinaires du développement durable en insérant les questionnements propres à la conduite des projets architecturaux et urbains. Notre principal objectif est de contribuer à une base de réflexion synthétique pour l’aide à la décision et la programmation des projets de quartiers, avec le cas d’étude de la ville d’Hanoï. Nous mettons en place une approche systémique sous forme de grilles d’analyse multicritères génériques pour l’évaluation des projets de quartiers durables. Nous proposons des recommandations et des préconisations par une analyse croisée des expériences européennes du domaine, en vue d’une démarche opérationnelle de l’élaboration des quartiers durables. Il s’agit d’un travail de référence permettant d’actualiser et d’enrichir les connaissances sur les dispositifs architecturaux et urbains durables adaptés aux contextes des villes des pays émergents comme le Vietnam. / The evolution of urban development is moving towards the sustainable development approach. It is through projects at the local scale - sustainable neighborhoods - that community policies on this matter are initiated and implemented. The increasing number and diversity of these operations reflect however a lack of studies on the approach and the development process specific to the scale of neighborhood, as well as the question of adaptation of the approach to each urban context. Based on this observation, we defined the central subject of our research as the crossing and integration of the concept of sustainability in the complexity of local contexts.Our approach is based on a transverse and crossed look on interdisciplinary themes of sustainable development, by crossing questions specific to architectural and urban projects management. Our main objective is to contribute to a synthetic base of reflection for decision-support for district planning, based on the case study of Hanoi City.We implement a systemic approach in the form of generic multi-criteria analysis grids for the evaluation of sustainable neighborhoods projects. We propose recommendations by a crossed analysis of European experiences in the field, in view of an operational approach to the development of sustainable neighborhoods. This is a reference work allowing updating and deepening knowledge on architectural and urban sustainable features, adapted to the contexts of cities in emerging countries like Vietnam.
26

Traitement de requêtes top-k multicritères et application à la recherche par le contenu dans les bases de données multimédia / Multicriteria top-k query processing and application to content-based search in multimedia databases

Badr, Mehdi 07 October 2013 (has links)
Le développement des techniques de traitement des requêtes de classement est un axe de recherche très actif dans le domaine de la recherche d'information. Plusieurs applications nécessitent le traitement des requêtes de classement multicritères, telles que les méta-moteurs de recherche sur le web, la recherche dans les réseaux sociaux, la recherche dans les bases de documents multimédia, etc. Contrairement aux requêtes booléennes traditionnelles, dans lesquelles le filtrage est basé sur des prédicats qui retournent vrai ou faux, les requêtes de classement utilisent des prédicats de similarité retournant un score de pertinence. Ces requêtes spécifient une fonction d'agrégation qui combine les scores individuels produits par les prédicats de similarité permettant de calculer un score global pour chaque objet. Les k objets avec les meilleurs scores globaux sont retournés dans le résultat final. Dans cette thèse, nous étudions dans un premier temps les techniques et algorithmes proposés dans la littérature conçus pour le traitement des requêtes top-k multicritères dans des contextes spécifiques de type et de coût d'accès aux scores, et nous proposons un cadre générique capable d'exprimer tous ces algorithmes. Ensuite, nous proposons une nouvelle stratégie en largeur «breadth-first», qui maintient l'ensemble courant des k meilleurs objets comme un tout, à la différence des stratégies en profondeur habituelles qui se focalisent sur le meilleur candidat. Nous présentons un nouvel algorithme «Breadth-Refine» (BR), basé sur cette stratégie et adaptable à n'importe quelle configuration de type et de coût d'accès aux scores. Nous montrons expérimentalement la supériorité de l'algorithme BR sur les algorithmes existants. Dans un deuxième temps, nous proposons une adaptation des algorithmes top-k à la recherche approximative, dont l'objectif est de trouver un compromis entre le temps de recherche et la qualité du résultat retourné. Nous explorons l'approximation par arrêt prématuré de l'exécution et proposons une première étude expérimentale du potentiel d'approximation des algorithmes top-k. Dans la dernière partie de la thèse, nous nous intéressons à l'application des techniques top-k multicritères à la recherche par le contenu dans les grandes bases de données multimédia. Dans ce contexte, un objet multimédia (une image par exemple) est représenté par un ou plusieurs descripteurs, en général sous forme de vecteurs numériques qui peuvent être vus comme des points dans un espace multidimensionnel. Nous explorons la recherche des k plus proches voisins (k-ppv) dans ces espaces et proposons une nouvelle technique de recherche k-ppv approximative «Multi-criteria Search Algorithm » (MSA) basée sur les principes des algorithmes top-k. Nous comparons MSA à des méthodes de l'état de l'art dans le contexte des grandes bases multimédia où les données ainsi que les structures d'index sont stockées sur disque, et montrons qu'il produit rapidement un très bon résultat approximatif. / Efficient processing of ranking queries is an important issue in today information retrieval applications such as meta-search engines on the web, information retrieval in social networks, similarity search in multimedia databases, etc. We address the problem of top-k multi-criteria query processing, where queries are composed of a set of ranking predicates, each one expressing a measure of similarity between data objects on some specific criteria. Unlike traditional Boolean predicates returning true or false, similarity predicates return a relevance score in a given interval. The query also specifies an aggregation function that combines the scores produced by the similarity predicates. Query results are ranked following the global score and only the best k ones are returned.In this thesis, we first study the state of the art techniques and algorithms designed for top-k multi-criteria query processing in specific conditions for the type of access to the scores and cost settings, and propose a generic framework able to express any top-k algorithm. Then we propose a new breadth-first strategy that maintains the current best k objects as a whole instead of focusing only on the best one such as in all the state of the art techniques. We present Breadth-Refine (BR), a new top-k algorithm based on this strategy and able to adapt to any combination of source access types and to any cost settings. Experiments clearly indicate that BR successfully adapts to various settings, with better results than state of the art algorithms.Secondly, we propose an adaptation of top-k algorithms to approximate search aiming to a compromise between execution time and result quality. We explore approximation by early stopping of the execution and propose a first experimental study of the approximation potential of top-k algorithms. Finally, we focus on the application of multi-criteria top-k techniques to Large Scale Content-Based Image Retrieval. In this context an image is represented by one or several descriptors, usually numeric vectors that can be seen as points in a multidimensional space. We explore the k-Nearest Neighbors search on such space and propose “Multi-criteria Search Algorithm” (MSA) a new technique for approximate k-NN based on multi-criteria top-k techniques. We compare MSA with state of the art methods in the context of large multimedia databases, where the database and the index structure are stored on disk, and show that MSA quickly produces very good approximate results.
27

Méthode prédictive d'évaluation de la gêne olfactive sur un territoire soumis à une activité industrielle. Approche du potentiel de nuisance et analyse de la vulnérabilité du territoire / Predictive method for the assessment of odor annoyance on a territory submitted to an industrial activity. Olfactory nuisance potential and territory vulnerability approach

Popa, Veronica 18 December 2013 (has links)
Le stress environnemental croissant perçu dans les zones résidentielles crée un sentiment d’insécurité et une perception négative de la qualité de vie, plaçant la nuisance olfactive au coeur des préoccupations des études environnementales. Dans ce contexte, les travaux de recherche présentés dans cette thèse de doctorat ont été initiés dans le but d’aboutir à une méthode permettant d’évaluer et de représenter les niveaux de gêne olfactive sur un territoire. En conséquence, l’intérêt s’est porté non seulement sur les caractéristiques de la source et des sujets récepteurs mais aussi sur leur environnement au moment de la perception de la nuisance odorante. Plus particulièrement, l’objectif de cette nouvelle approche est de permettre de mesurer et de prévoir l’impact olfactif d’une industrie existante ou future sur un territoire donné. L’idée est de représenter le niveau de gêne olfactive et ses conséquences sur le territoire, afin d’avoir une meilleure gestion du site industriel en termes de rejets, mais aussi de fournir une aide à la décision claire et objective aux acteurs impliqués. La démarche développée s’articule autour de deux concepts : la gêne olfactive et le préjudice économique de cette gêne sur le territoire. Ces deux concepts sont définis par un ensemble de critères hétérogènes organisés et agrégés afin d’aboutir à un outil géographique et environnemental opérationnel. L’outil a été validé autour d’un site industriel permettant de confronter l’approche méthodologique développée et le résultat des mesures sur place. Les résultats de l’application de cette méthode sont de qualité satisfaisante et ouvrent la porte à de nombreuses perspectives de recherche. / The increasing environmental stress felt in residential areas leads to an unsafety sensation and to a negative life-quality perception, setting odor annoyance at the heart of environmental issues. Within this context, the research work presented in this doctoral thesis was initiated in order to result in a method allowing to assess and to represent the odor annoyance levels on a given territory. As a consequence, the interest has focused not only on the characteristics of the source and of the exposed targets, but also on their environment during the perception of the olfactory nuisance. To be more precise, the aim of this new approach is to make us able to measure and to forecast the olfactory impact of an existing or a future industry plant on a given territory. The main idea is to represent the level of odor annoyance and its consequences on the territory, in order to reach a best level of industrial plant management in terms of wastes as well as to provide a clear and objective decision support tool for the involved actors. The developed method revolves around two main concepts: the odor annoyance and the economical prejudice of this annoyance on the targeted territory. These two concepts are defined by a group of heterogeneous criteria, organized and aggregated in order to obtain a geographical and environmental operational tool. This tool has been validated for an industrial plant, thus comparing the developed approach to on the spot measurements results. The results of the application of this method came out satisfying and open numerous paths of inquiry.
28

3D visualization and interactive image manipulation for surgical planning in robot-assisted surgery / Visualisation 3D et traitement d’images interactif pour l’assistance au placement des bras d’un robot chirurgical

Maddah, Mohammad Reza 27 September 2018 (has links)
La chirurgie robotisée a été développée pour pallier les difficultés de la chirurgie laparoscopique. Le robot da Vinci (Intuitive Surgical) est largement répandu dans les hôpitaux nord-américains et européens pour la chirurgie abdominale. Basé sur de la téléopération, il améliore la dextérité et la précision des opérations en chirurgie mini-invasive. Cependant, des recommandations incomplètes et des défauts ergonomiques du système, pour positionner les bras du robot à la surface l’abdomen du patient avant l’opération, créent un des principaux problèmes de la chirurgie robotisée : des organes inatteignables ou des collisions entre les instruments pendant l’opération. L’objectif de ces travaux de recherche est de proposer une nouvelle méthode de placement des bras du robot basée sur une assistance opératoire numérique utilisant l’analyse d’images médicales du patient et la modélisation 3D de la surface de son abdomen afin de calculer des positions des bras optimales en fonction des caractéristiques du robot, de la position des organes et du type de chirurgie. / Robot-assisted surgery, or “robotic”surgery, has been developed to address thedifficulties with the traditional laparoscopicsurgery. The da Vinci (Intuitive Surgical, CA andUSA) is one of the FDA-approved surgical robotic system which is widely used in the case of abdominal surgeries like hysterectomy and cholecystectomy. The technology includes a system of master and slave tele-manipulators that enhances manipulation precision. However, inadequate guidelines and lack of a human machine interface system for planning the ports on the abdomen surface are some of the main issues with robotic surgery. Unreachable target and mid-surgery collisions between robotic arms are the major problems that surgeons complain about in robotic surgery. The objective of this research is to design a new decision-support tool for planning port placement in robotic surgery. The decision support system will be able to determine the optimal location of the entrance ports on the abdomen surface that is specific to the patient.
29

Conception assistée par modèle de systèmes de culture durables : Application aux systèmes bananiers de Guadeloupe

TIXIER, Philippe 14 December 2004 (has links) (PDF)
Aujourd'hui, la culture bananière aux Antilles est confrontée à d'importants problèmes agronomiques (rendements faibles à cause du développement important de pathogènes), environnementaux (transport de pesticides et de sol vers les eaux de surface, dans un contexte écologique insulaire fragile) et économiques (variation du prix de vente des fruits et coût de la main d'œuvre élevé) susceptibles de remettre en cause la pérennité de la filière. Dans ce contexte, des systèmes de culture innovants répondant à un nouveau cahier des charges économique et environnemental doivent être mis au point. Plusieurs voies sont explorées qui, au delà d'un mode de conduite raisonné, visent à l'intégration de jachères, de rotations ou de plantes associées. <br /><br />L'évaluation et la conception de tels systèmes de culture innovants nécessitent l'utilisation d'outils de modélisation spécifiques qui rendent compte des caractéristiques particulières du système. Un modèle spécifique appelé SIMBA à été développé dans ce sens. SIMBA simule l'évolution de la structure du peuplement de bananiers au cours des cycles de culture, point clé qui conditionne l'ensemble de la dynamique du système. La composante parasitaire, qui influe sur la pérennité de la bananeraie et conditionne l'emploi des produits phytosanitaires est également prise en compte. Le parasitisme des nématodes phytoparasites est simulé, en interaction avec la croissance et la structure du peuplement, l'état du sol et l'emploi de nématicides. SIMBA simule également la croissance des bananiers et leur productivité, la structure du sol, la couverture du sol et le bilan hydrique. Des indicateurs qualitatifs et intégrateurs, conçus spécifiquement, permettent, couplés à ces modules biophysiques, l'évaluation au cours du temps de risques environnementaux comme le risque de pollution des eaux par les produits phytosanitaires et le risque d'érosion. Les pratiques culturales sont prises en compte à travers des règles de décision qu'il est ainsi possible d'évaluer. Le modèle SIMBA, en fournissant des sorties agronomiques, environnementales et économiques (marge brute), permet ainsi l'évaluation multicritère de systèmes de culture simulés selon plusieurs points de vue.<br /><br />SIMBA a ensuite été utilisé selon une méthode originale de prototypage en deux étapes (exploration globale puis optimisation spécifique). Les résultats obtenus ont permis d'identifier certains systèmes de culture qu'il conviendra de tester ‘au champ'. Cette approche systémique et fonctionnelle, qui a permis des avancées significatives au niveau de la modélisation des systèmes bananiers, constitue un outil performant pour la conception de systèmes de culture durables.
30

La résolution du problème de formation de cellules dans un contexte multicritère

Ahadri, Mohamed Zaki 01 1900 (has links)
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales. / Group technology techniques are now widely used in many manufacturing systems. Those techniques aim to decompose industrial systems into subsystems or cells of parts and machines. The problem of finding the most effectivegroup technology is formulated in operations research as the Cell Formation Problem. Several criteria can be used to specify the optimal solution such as flood intercellular, intracellular load balancing, etc. Solving this problem leads to several advantages such as reducing inventory and simplifying programming. The Cell Formation Problem is an NP-hard problem; therefore, exact methods cannot be used to solve large problems within a reasonabletime, whereas heuristics can generate solutions of lower quality, but in a reasonable execution time. We suggest in this work, three different metaheuristics to solve the cell formation problem having two objectives functions: cell autonomy and load balancing between the cells.We compare numerically these metaheuristics. Furthermore, for problems of smaller dimension that can be solved exactly with CPLEX, we verify that the metaheuristics can reach the optimal value.

Page generated in 0.1077 seconds