• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 48
  • 8
  • 1
  • Tagged with
  • 148
  • 56
  • 42
  • 36
  • 33
  • 33
  • 31
  • 31
  • 26
  • 26
  • 21
  • 20
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Mathematical models and methods based on metaheuristic approach for timetabling problem / Les modèles mathématiques et des méthodes fondées sur l'approche métaheuristique pour résoudre les problèmes d'établissement des horaires

Ahmad, Maqsood 15 November 2013 (has links)
Résumé indisponible. / In this thesis we have concerned ourselves with university timetabling problems both course timetabling and examination timetabling problems. Most of the timetabling problems are computationally NP-complete problems, which means that the amount of computation required to find solutions increases exponentially with problem size. These are idiosyncratic nature problems, for example different universities have their own set of constraints, their own definition of good timetable, feasible timetable and their own choice about the use of constraint type (as a soft or hard constraint). Unfortunately, it is often the case that a problem solving approach which is successfully applied for one specific problem may not become suitable for others. This is a motivation, we propose a generalized problem which covers many constraints used in different universities or never used in literature. Many university timetabling problems are sub problems of this generalized problem. Our proposed algorithms can solve these sub problems easily, moreover constraints can be used according to the desire of user easily because these constraints can be used as reference to penalty attached with them as well. It means that give more penalty value to hard constraints than soft constraint. Thus more penalty value constraints are dealt as a hard constraint by algorithm. Our algorithms can also solve a problem in two phases with little modification, where in first phase hard constraints are solved. In this work we have preferred and used two phase technique to solve timetabling problems because by using this approach algorithms have broader search space in first phase to satisfy hard constraints while not considering soft constraints at all. Two types of algorithms are used in literature to solve university timetabling problem, exact algorithms and approximation algorithms. Exact algorithms are able to find optimal solution, however in university timetabling problems exact algorithms constitute brute-force style procedures. And because these problems have the exponential growth rates of the search spaces, thus these kinds of algorithms can be applied for small size problems. On the other side, approximation algorithms may construct optimal solution or not but they can produce good practically useable solutions. Thus due to these factors we have proposed approximation algorithms to solve university timetabling problem. We have proposed metaheuristic based techniques to solve timetabling problem, thus we have mostly discussed metaheuristic based algorithms such as evolutionary algorithms, simulated annealing, tabu search, ant colony optimization and honey bee algorithms. These algorithms have been used to solve many other combinatorial optimization problems other than timetabling problem by modifying a general purpose algorithmic framework. We also have presented a bibliography of linear integer programming techniques used to solve timetabling problem because we have formulated linear integer programming formulations for our course and examination timetabling problems. We have proposed two stage algorithms where hard constraints are satisfied in first phase and soft constraints in second phase. The main purpose to use this two stage technique is that in first phase hard constraints satisfaction can use more relax search space because in first phase it does not consider soft constraints. In second phase it tries to satisfy soft constraints when maintaining hard constraints satisfaction which are already done in first phase. (...)
112

Processus d'apprentissage, savoirs complexes et traitement de l'information : un modèle théorique à l'usage des praticiens, entre sciences cognitives, didactique et philosophie des sciences. / Learning processes, complex knowledge and information processing : a theoretical model for practitioners, between cognitive science, didactics and philosophy of science

Eastes, Richard-Emmanuel 11 June 2013 (has links)
Cherchant à établir un pont théorique et pratique entre les sciences de l'éducation, les sciences cognitives et la philosophie des sciences, la thèse développe un modèle didactique à l'interface entre ces disciplines : le modèle allostérique de l'apprendre initié et développé par Giordan (1988) et al. (1992), qui s'inscrit dans le paradigme des théories du changement conceptuel. Nourri par les travaux récents des psychologues cognitifs sur les processus d'apprentissage tels que les théories du recyclage neuronal (Dehaene, 2007) ou de l'inhibition cérébrale (Houdé & Tzourio-Mazoyer, 2003), ainsi que sur diverses théories relatives à l'élaboration de la pensée telles que l'économie comportementale (Tversky & Kahnernan, 1982) ou le modèle-cadre SRK (Rasmussen, 1990), ce modèle développe et précise le concept d’allostérie à travers la description et la formalisation des processus de déconstruction-reconstruction des conceptions, qui ont lieu lors des apprentissages complexes. De la phase de théorisation du modèle, effectuée par un recours aux formalismes de la réactivité chimique en accord avec la métaphore initiale de l'allostérie, il est possible de déduire divers environnements didactiques opératoires et féconds pour le praticien de l'enseignement et de la médiation scientifiques. Ces prévisions théoriques sont alors mises à l'épreuve de l'expérimentation didactique à travers une recherche de terrain centrée sur la notion d'expérience contre-intuitive (Eastes & Pellaud, 2004) menée auprès de différents types de publics. / Aiming at bridging education sciences, cognitive sciences and philosophy of science both theoretically and practically, this thesis develops a didactical model at the interface between these fields: the allosteric learning model developed by Giordan (1988) et al. (1992), understood in the context conceptual change theories paradigm. Fueled by the recent works of cognitive psychologists on learning processes such as neuronal recycling (Dehaene, 2007) or cerebral inhibition (Houdé & Tzourio-Mazoyer, 2003), as well as on various theories related to the thought processes such as behavioral economies (Tversky & Kahneman, 1982) or the Skills-Rules-Knowledge framework model (Rasmussen, 1990), this model develops and refines the concept of allostery through the description and formalization of specific processes that take place in complex learning situations : the deconstruction-reconstruction of conceptions. Based on the theorization of the model, done through the use chemical reactivity formalisms in line with the initial metaphor of allostery, it is possible to deduce various operational and fruitful didactical environments for teaching practitioners or science communication professionals. These theoretical projections are then put to the test through didactic experimentation taking the shape of field research on the notion of counter-intuitive experiment (Eastes & Pellaud, 2004) conducted with different types of target groups.
113

Les outils langagiers, iconiques et plastiques de la presse écrite française et leur rôle dans l’éducation aux médias inhérente au choix de vote des campagnes présidentielles en France : une étude exploratoire de couvertures de journaux selon leurs promesses discursives et évolution identitaire de 2007 à 2017 / Linguistics, iconics and plastics tools of language of the french print press and their part in the media education related to vote choice about french presidential campaigns : an exploratory study of covertures’ pictures of newspapers depending on their promises discursives and identity evolution start from 2007 to 2017

Madiba, Marie-Sophie 11 December 2018 (has links)
Cette recherche vise à analyser et à interpréter les modes de construction, de diffusion et d’appropriation des sens et significations des instruments de langages médiatiques au sujet des campagnes présidentielles de 2007, 2012 et 2017 par les journaux de la presse française. Notre problématique peut s’exprimer par les deux questions suivantes : en quoi les outilslangagiers, iconiques et plastiques des couvertures de journaux constituent-ils des instruments techniques visant le choix présidentiel dans la période de 2007 et 2012 en France ? En quoi les outils de langage des médias jouent un rôle d’instruments techniques et psychologiques dans les représentations et l’appropriation des messages médiatiques par des étudiant-e-s en Sciences de l’Education au cours de la campagne présidentielle de 2017 ? Pour ce faire, nous avons analysé, comparé et interprété le réseau de relations entre les modes de construction et de diffusion des outils de langage utilisés par les journaux pour présenter des campagnes présidentielles au cours de deux périodes historiques. Une étude complémentaire nous a permisd’analyser et d’interpréter les représentations et l’appropriation des messages médiatiques par des étudiant-e-s en Sciences de l’éducation pendant la campagne présidentielle de 2017. Au plan théorique, nous nous sommes appuyée sur la théorie historico-culturelle de Vygotski (1985), la notion d’artefact de Rabardel (1995), les théories en éducation aux médias, la notion de cadre de Goffman (1991), la théorie de l’acteur-réseau de Latour (2007). Au plan méthodologique, nous avons opté pour une démarche quali-quantitative en utilisant, en particumier, les logiciels CHIC, Tropes et Iramuteq, une méthode d’analyse de contenu (Bardin, 1993) et de discours (Maingueneau, 2014) des outils de langage des couvertures de journaux. Nous avons adopté une approche méthodologique croisée intégrant la méthode d’analyse statistique implicative, une approche psycho-socio-sémiolinguistique etpragmatique. Le corpus a été constitué de 239 éditions de journaux, 293 images des unes des journaux français (20 Minutes, Métro, Lyon Plus, Le Figaro, Le Monde, et Le Progrès) et 15 entretiens réalisés auprès d’étudiant-e-s en Sciences de l’Education. Les résultats montrent que les outils de langage médiatique constituent des instruments techniques via la mise en place de différents procédés, de cadres naturels et sociaux de conceptualisation, via la mise en évidence d’une diversité de visées (pathémiques, persuasives, de faire agir, cognitives) et la nature des styles discursifs (statif, déclaratif, narratif, argumentatif). Les schèmes heuristiques et pragmatiques sont davantage sollicités en 2007 que les schèmes épistémiques dont la mise en visibilité a été renforcée en 2012. L’examen des instruments destinés à la diffusion des savoirs médiatiques non formels et informels au sujet des campagnes présidentielles montre des indices que la pensée se construit et évolue en fonction d’un contexte socio-historique donné avec des formes d’actualisation, de nouveauté et de redondance. La prise en compte d’une dimension sociale, symbolique, privée, consciente, inconsciente est intégrée à l’appropriation des instruments médiatiques mais aussi aux pratiques d’étudiants dans la formation de leurs décisions. L’analyse et l’interprétation de l’appropriation des messages médiatiques par les étudiant-e-s démontrent que la consultation et l’appropriation de ceux-ci remplissent un besoindavantage cognitif, conatif que comportemental. / The aim of this research is to analyze and interpret form of construction, providing and appropriation of senses and meanings of mediatic languages tools about presidential campaigns of 2007, 2012 and 2017 through the french newspapers. Firstly, we wanted to know how can linguistic, iconic and plastic tools of the first page of newspapers can be considered like technictools with the aim of the presidential choice during the period 2007 and 2012. Secondly, we wanted to find out how media language tools can contribute to be psychological and technic through the representations and appropriation of mediatic messages by students in Education Science during the presidential campaign 2017? On the one hand, we have planned to analyze, compare and interpret network relation between construction and providing of tools language used by the newspapers to present presidential campaigns during two historic periods. On the other hand, a complementary study has allowed us to analyse and interpret the representations and appropriation of mediatic messages by students in Education Science. On the theoretical aspect; we based our research on historical-cultural theory of Vygotski (1985), the concept of artefact (Rabardel, 1995), media education theories, concept of frame (Goffman, 1995), the network-actor theory (2007). On the methodological aspect, we have chosen a qualiquantitative method (with the softwares CHIC, Tropes, Iramuteq), a content (Bardin, 1993) anddiscourse (Maingueneau, 2014) analysis methods of language tools of first page of newspapers. We opted for a cross-cultural approach including statistical implicative analysis, a psychosocio-semio-linguistic, semiological and pragmatic approaches. The corpus have been made up of 239 newspapers editions, 293 pictures of the first coverture of french newspapers (20 Minutes, Métro, Lyon Plus, Le Figaro, Le Monde, et Le Progrès) and 15 interviews collected from students in Education Science. The results show that media language tools can be established as technical tools through the introduction of different mechanisms, natural and social frames of conceptualization, through a hightlighting types of discourse (stative, declarative, narrative and argumentative). Heuristics and pragmatics schemes are mainly requested in 2007 than epistemics schemes which have been reinforced in 2012. The analysis of tools made for the spread of formal and informal mediatic kwnowledges or news aboutpresidential campaigns show that the thought is built and it is developed depending on sociohistorical context with form of actualisation, novelty, and redundancy. The taking into account of social, symbolic, private, conscious, onconscious dimension is involved to the mediatic tools appropriation but also with the practices of students in the construction of their decisions. Theanalysis and the interpretation of the apropriation of mediatic messages by the students in Education Science demonstrate that the consultation and the appropriation of this fulfill more a cognitive, conative than behavioural needs.
114

Utilisation de la conduite coopérative pour la régulation de trafic dans une intersection / Using the technology of cooperative driving for the traffic control at isolated intersection

Wu, Jia 20 July 2011 (has links)
L’objectif de ce travail est d’exploiter les potentialités offertes par la conduite coopérative afin de fluidifier le trafic au niveau des intersections isolées. Pour ce faire, nous avons proposé un nouveau système de régulation au sein des intersections en s’inspirant du principe de l’intersection autonome. Nous avons appelé notre système : SVAC (système du véhicule-actionneur coopératif). Il repose sur la possibilité des échanges d’information entre le véhicule et son environnement de conduite.Le SVAC permet une régulation plus précise du trafic puisqu’il se base sur les requêtes de droit de passage envoyées par les véhicules réellement présents dans l’intersection. En outre, grâce à la signalisation à bord, la régulation consiste à définir les séquences de passage des véhicules, ce qui permet de personnaliser la signalisation. Le gain de précision soulève plusieurs obstacles. D’une part, nous nous heurtons systématiquement à l’absence de modèles mathématiques permettant d’aborder le problème. D’autre part, la simple énumération des séquences implique une explosion combinatoire, ce qui ne convient pas à l’application temps-réelle de la régulation des intersections. Pour s’affranchir des deux problématiques nous avons utilisé les réseaux de Petri P-temporisés. Le modèle nous a permis de décrire sous la forme d’équations mathématiques les compteurs des différents évènements observés par les véhicules. Deux objectifs de régulation ont été dégagés après avoir déduit le temps moyen d’attente basé sur la formule de Little. Le premier consiste à vider les intersections au plus tôt. Nous avons proposé un algorithme de programmation dynamique et deux heuristiques. La première heuristique est directement issue de l’analyse des propriétés du problème posé. La deuxième est basée sur l’algorithme de colonies de fourmis. En effet, le problème défini est un cas particulier du problème du voyageur de commerce. Le deuxième objectif de régulation consiste à minimiser instantanément la longueur de la file d’attente. Dans ce cadre, nous avons supposé le fonctionnement à vitesse maximale du réseau de Petri. L’utilisation des contraintes sur les ressources nous a permis de définir des règles simples de régulation en utilisant le mapping.Dans ce mémoire, nous avons utilisé la simulation microscopique basée sur les lois de poursuite pour s’approcher du comportement de conduite. La simulation a servi pour la comparaison des différentes approches proposées dans ce mémoire avec les régulateurs adaptatifs et les intersections autonomes. Dans tous les cas notre approche se distingue par un gain de capacité, ce qui nous a encouragé de reproduire le SVAC à travers un prototype de robots. Cette maquette montre la faisabilité du système au moins pour des applications industrielles. / The aim of this work is to benefit from the potential of the cooperative driving in order to optimize the traffic throughput at isolated intersections. To achieve this objective, we have proposed a new traffic control system for isolated intersections: Cooperative Vehicle-Actuation Signalization (CVAS). The concept of this new system is based on the assumption of the ability of exchanging information between each vehicle and the surrounding vehicles or the nearby infrastructure.The system allows more precise control of the traffic since it determines the right-of-way of each vehicle according to its corresponding data sent by the embedded wireless device. The right-of-way is displayed to the driver by means of the onboard signalization. The control system determines the sequence of the vehicles to be directed through the intersection. For the sake of benefiting the improvement brought by the new system, we face several challenges. On the one hand, we are confronted with the absence of a mathematical model to address the control problem. On the other hand, despite the fact that the optimal passing sequence of vehicles can be found by the simple enumeration of all feasible sequences, the exhaustive search does not fulfill the requirements of the real-time application. To overcome these two problems, we seek help from the P-timed Petri nets. This mathematical modeling tool is able to describe the events observed by the position markers in the form of mathematical equations. Two different objectives of the control have been derived from the Little's formula. The first one aims to minimize the maximum exit time of vehicles present in the intersection. An algorithm of dynamic programming and two heuristics have been proposed to achieve this objective. The first heuristic is based on the analysis of the properties of the control problem. The second heuristic is based on the analogy between the dealt problem and the problem of Traveling Salesman Problem, which can be solved successfully by the algorithm of ant colony system. The second objective of the control is to instantly minimize the queue length. A protocol of relaying the right of way has been determined from the assumption of a Petri net that operates at its maximum speed. This simple protocol of control can be extended to all possible layouts of the isolated intersections by using the technique of “mapping”.In this work, a microscopic model (car-following model) is used to simulate the driving behavior. The simulations show that the CVAS system outperforms the other systems which are popularly used at present. It is even better than some innovative systems based on the technology of the cooperative driving. The good results encouraged us to replicate the system under real conditions through a prototype of NXT robots. The tests of this prototype prove the feasibility of the system at least for industrial applications.
115

Contribution à l'ordonnancement d'ateliers avec ressources de transports / Contribution to job shop scheduling problems with transport resources

Zhang, Qiao 25 July 2012 (has links)
Nos travaux concernent l’étude d’une extension d’un problème d’ordonnancement bien connu sous l’appellation job shop. Nous appelons cette extension le General Flexible Job Shop Scheduling Problem (GFJSSP). Celui-ci se rencontre dans différents types d’ateliers ayant comme caractéristique commune d’être soumis à des contraintes dues à des ressources de transport. Le GFJSSP se caractérise par l’intégration de machines et robots flexibles. Le terme General induit par ailleurs la présence de robots dont la capacité est supposée unitaire dans notre étude, des temps opératoires bornés, et la possibilité de prise en compte d’emplacements de stockage spécifiques. Après avoir défini l’atelier et le problème correspondant à cette extension, nous avons proposé deux modélisations du GFJSSP ainsi défini : une première modélisation mathématique linéaire, et une modélisation graphique, qui correspond à une généralisation du graphe disjonctif couramment utilisé pour les problèmes de job shop. Nous avons ensuite abordé la résolution suivant deux étapes : tout d’abord en nous focalisant sur l’aspect séquencement des tâches de traitement et de transport, pour lequel nous avons élaboré deux méthodes heuristiques (de type Tabou et basée sur une procédure de shifting bottleneck améliorée) ; puis en intégrant dans un deuxième temps la problématique de l’affectation induite par la flexibilité de certaines ressources. Pour cette dernière étape, nous avons combiné les méthodes précédentes avec un algorithme génétique. L’algorithme hybride obtenu nous permet de résoudre des instances de la littérature correspondant à divers cas spécifiques, avec des résultats assez proches des meilleures méthodes dédiées. A termes, il pourrait être intégré dans un système d'aide à la décision général qui s’affranchirait de la phase d’identification préalable du type de job shop considéré, et serait adapté à la résolution de nombreux cas (avec ou sans problème d'affectation, temps de traitement fixes ou bornés, avec ou sans stockage, etc..). / Our work focuses on an extension of the well known job shop scheduling problem. We call this extension the General Flexible Job Shop Scheduling Problem (GFJSSP). It occurs in various kinds of workshops which are particularly constrained by one or several transportation resources (called robots). GFJSSP is characterized by the flexibility of both machines and robots. In the studied problem, the term General involves unitary capacity transportation resources, bounded processing times, and possible input/output buffers for machines. After defining the workshop and the corresponding problem, we proposed two kinds of model for the GFJSSP: a mathematical model, and a graphical one. This last one is a generalization of the disjunctive graph commonly used for job shop problems. We then addressed the resolution in two steps: firstly, by focusing on the sequencing of processing and transportation tasks. For this purpose we have developed two heuristics (Tabu search and an improved shifting bottleneck procedure). Secondly, we have considered the assignment problem involved by the flexibility of some resources. For this last step, we combined the above methods with a genetic algorithm. This hybrid algorithm allowed us to solve various specific cases of instances in the literature, with performance rather close to the best dedicated methods. In the future, it could be integrated within a general decision support system which could emancipate from the initial identification phase of the considered type of job shop, and which would be suitable for solving many cases (with or without assignment problem, fixed or bounded processing times, with or without storage, and so on).
116

Contribution à l'ordonnancement des ateliers de traitement de surface avec deux robots / Contribution to Hoist Schelduling Problems with two transport resources

Kharrat, Samah 13 December 2012 (has links)
Dans cette thèse, nous nous intéressons principalement à l’étude du fonctionnement cyclique mono-produit des ateliers de traitement de surface. Notre contribution porte sur le problème d’ordonnancement associé connu dans la littérature sous le nom Cyclic Hoist Scheduling Problem (CHSP). L’objet de cette thèse est de proposer des méthodes efficaces pour la résolution des problèmes de traitement de surface dans le cas où les produits à traiter sont du même type. Nous traitons en particulier le cas où le nombre des robots présents sur la ligne est égal à deux, ce qui augmente le nombre des contraintes du problème, sachant que dans le cas mono robot, ce problème a été prouvé NP-Complet. Pour cela, nous proposons une méthode qui combine deux heuristiques et un programme linéaire mixte. Cette méthode permet notamment d’affecter les mouvements de transport à l’un des deux robots tout en gérant les risques de collision entre eux, lorsque la gamme opératoire des produits à traiter suit l’implantation des cuves.Par la suite, nous proposons une extension du modèle au cas de lignes complexes. Enfin, nous étudions le cas d’un fonctionnement mixte, pour lequel il est nécessaire de traiter dans une même installation des produits différents et des rafales de produits identiques. Dans ces conditions, la solution la plus intéressante pour les industriels est de pouvoir alterner des modes de production dynamiques et cycliques. Pour cela, nous proposons une méthode efficace permettant de résoudre le problème d’ordonnancement associé à la phase transitoire relative à ce type de fonctionnement. Elle consiste en particulier à chercher les dates d’entrée au plus tôt des produits. La principale difficulté identifiée consiste ici à passer du mode dynamique au mode cyclique, c’est-à-dire à rejoindre un cycle à partir d’une solution courante donnée, en supposant que ce cycle est connu à priori. Les méthodes élaborées dans les divers cas traités sont validées par des tests sur des benchmarks de la littérature. / In this thesis, our interest is focused on the Cyclic Hoist Scheduling Problem (CHSP) in automated electroplating lines. The aim of this study is to propose an algorithm to solve the two-hoists cyclic scheduling problem. This one consists in finding a repetitive sequence of hoists’ moves, while avoiding collision between the hoists which share a common track. The objective is to minimize the period of this repetitive cycle for single part-type production. This problem was proved to be NP-complete for lines with a single hoist. The fact that two hoists are available on the line increases the number of constraints of the problem. Then we propose a solving method combining two heuristics and a Mixed Integer Linear Program. It enables us to solve both assignment and sequencing problems, while considering spatial constraints related to hoist’moves.Subsequently, we propose an extension of the model which is adapted to complex lines. Finally, our interest is focused on solving a HSP for which it is necessary to treat in the same facility a batch of various products and a batch of identical products. Under these conditions, the most interesting solution for manufacturers is to be able to alternate the production of two batches. For this goal, we propose an efficient method to solve the scheduling problem associated. Finally, our proposed methods are validated by experimentations based on benchmarks from the literature.
117

Workforce scheduling and job rotation by considering ergonomic factors (Presentation of the Sequencing Generalized Assignment Problem) : application to production and home healthcare systems / Planification du personnel et rotation des tâches en considérant des facteurs ergonomiques : application aux systèmes de production et soins à domicile

Moussavi, Seyed Esmaeil 30 August 2018 (has links)
Cette thèse porte sur la planification du personnel en accordant une attention particulière à l'aspect humain et aux facteurs ergonomiques dans le domaine de la production. Un certain nombre de modèles mathématiques sont présentés pour formuler les problèmes d'ordonnancement et de planification du personnel étudié. Concernant les modèles de planification, la productivité du système de fabrication et le bien-être des travailleurs sont ciblés. De cette manière, une méthode d'affectation des travailleurs est présentée pour réduire le temps de production et une méthode d'ordonnancement pour la rotation des tâches est présentée afin d’équilibrer la charge de travail des opérateurs. À cet effet, une analyse ergonomique est effectuée sur les postes de travail du système de production étudié. Cette analyse aboutit à l'évaluation des postes du travail suivant la convention dite des feux de circulation, c'est-à-dire que les postes sont classés dans les niveaux de charge faible, moyen et élevé qui sont représentés respectivement par les couleurs verte, jaune et rouge. Une approche mathématique est développée pour convertir ces résultats en valeurs numériques, car les paramètres quantitatifs sont plus applicables pour l'optimisation de la planification. Une programmation multi-objectifs est proposée pour optimiser les deux objectifs mentionnés du problème d'ordonnancement de tournée du personnel étudié. Les méthodes d'agrégation linéaire et de ε-contrainte sont appliquées pour résoudre ce modèle d'optimisation. En outre, cette thèse présente une nouvelle variante du problème d'affectation appelé problème d'affectation généralisée par séquence qui est défini pour la planification du personnel dans un système combiné constitué des postes de travail en série et en parallèle. Il est prouvé que ce problème d'optimisation combinatoire est NP-difficile et les méthodes exactes ne sont pas capables de résoudre les instances de grande taille. Ainsi, trois méthodes approchées composées de deux approches matheuristiques et une heuristique hybride sont développées pour résoudre ce problème. Les méthodes matheuristiques sont basées sur la décomposition de la formulation pour simplifier le modèle principal en deux ou plusieurs modèles plus petits. La troisième méthode est une heuristique gloutonne combinée à une recherche locale. En outre, dans la dernière étape de cette thèse, la planification des ressources humaines pour un système de soins à domicile est formulée mathématiquement. Selon la structure du système, une intégration des problèmes d'affectation et de tournées de véhicules est présentée. Enfin, une approche matheuristique en trois étapes est proposée pour résoudre ce problème d'optimisation combinatoire. / This thesis concerns the human resource planning by paying a special attention to the human aspect and ergonomic factors in the manufacturing domain. A number of mathematical models are presented to formulate the studied workforce scheduling and planning problems. In the planning models, the productivity of the manufacturing system and the well-being of the workers are targeted. In this way, a worker assignment approach is presented to reduce the production time and a job rotation scheduling approach is presented to balance the workloads on the operators. For this purpose, an ergonomic analysis is carried out on the jobs of the studied production system. This analysis results in the traffic light evaluation for the jobs, i.e., the jobs are categorized into the low, medium and high workload levels which are presented respectively by the green, yellow and red colors. A mathematical approach is developed to convert these outputs to the numerical values, because the quantitative parameters are more applicable for the optimization of the planning. A multi-objective programming is proposed to optimize two mentioned objectives of the studied workforce scheduling problem. Both linear aggregation and epsilon-constraint methods are applied to solve this optimization model. Furthermore, this thesis presents a novel variant of the assignment problem called sequencing generalized assignment problem which is defined for workforce scheduling in a combined system consisting of the jobs in series and in parallel. It is proved that this combinatorial optimization problem is NP-hard and the exact methods are not able to solve the large-scale instances. Hence, three approximate methods consisting of two matheuristic and a hybrid heuristic approaches are developed to solve it. The matheuristic methods are based on the decomposition of the formulation to break down and simplify the main model into two or more smaller models. The third method is a greedy heuristic combined with a local search. The efficiency of the three mentioned methods is evaluated by various instances of different sizes. Moreover, in the last step of this thesis, the human resource planning for a home healthcare system is formulated mathematically. According to the structure of the system, an integration of the worker assignment and vehicle routing problems is presented. Finally, a three-steps matheuristic approach is proposed to solve this combinatorial optimization problem.
118

Méthodologie d’analyse de fiabilité basée sur des techniques heuristiques d’optimisation et modèles sans maillage : applications aux systèmes mécaniques / Reliability analysis methodology based on heuristic optimization techniques and non-mesh models : applications to mechanical systems

Rojas, Jhojan Enrique 04 April 2008 (has links)
Les projets d'Ingénierie Structurale doivent s’adapter aux critères de performance, de sécurité, de fonctionnalité, de durabilité et autres, établis dans la phase d’avant-projet. Traditionnellement, les projets utilisent des informations de nature déterministe comme les dimensions, les propriétés des matériaux et les charges externes. Toutefois, la modélisation des systèmes structuraux complexes implique le traitement des différents types et niveaux d'incertitudes. Dans ce sens, la prévision du comportement doit être préférablement faite en termes de probabilités puisque l'estimation de la probabilité de succès d'un certain critère est une nécessité primaire dans l’Ingénierie Structurale. Ainsi, la fiabilité est la probabilité rapportée à la parfaite opération d'un système structural donné durant un certain temps en des conditions normales d'opération pour trouver le meilleur compromis entre coût et sécurité pour l’élaboration des projets. Visant à pallier les désavantagés des méthodes traditionnelles FORM et SORM (First and Second Order Reliability Method), cette thèse propose une méthode d’analyse de fiabilité basée sur des techniques d’optimisation heuristiques (HBRM, Heuristic-based Reliability Method). Les méthodes heuristiques d’optimisation utilisées par cette méthode sont : Algorithmes Génétiques (Genetic Algorithms), Optimisation par Essaims Particulaires (Particle Swarm Optimisation) et Optimisation par Colonie de Fourmis (Ant Colony Optimization). La méthode HBRM ne requiert aucune estimation initiale de la solution et opère selon le principe de la recherche multi-directionnelle, sans besoin de calculer les dérivées partielles de la fonction d’état limite par rapport aux variables aléatoires. L’évaluation des fonctions d’état limite est réalisée en utilisant modèles analytiques, semi analytiques et numériques. Dans ce but, la mise en oeuvre de la méthode de Ritz (via MATLAB®), la méthode des éléments finis (via MATLAB® et ANSYS®) et la méthode sans maillage de Galerkin (Element-free Galerkin sous MATLAB®) a été nécessaire. La combinaison d’analyse de fiabilité, des méthodes d’optimisation et méthodes de modélisation, ci-dessus mentionnées, configure la méthodologie de conception fiabiliste proposée dans ce mémoire. L’utilisation de différentes méthodes de modélisation et d’optimisation a eu pour objectif de mettre en évidence leurs avantages et désavantages pour des applications spécifiques, ainsi pour démontrer l’applicabilité et la robustesse de la méthodologie de conception fiabiliste en utilisant ces techniques numériques. Ce qui a été possible grâce aux bons résultats trouvés dans la plupart des applications. Dans ce sens, des applications uni, bi et tridimensionnelles en statique, stabilité et dynamique des structures explorent l’évaluation explicite et implicite des fonctions d’état limite de plusieurs variables aléatoires. Procédures de validation déterministe et analyses stochastiques, et la méthode de perturbation de Muscolino, donnent les bases de l’analyse de fiabilité des applications en problèmes d’interaction fluide-structure bi et tridimensionnelles. La méthodologie est particulièrement appliquée à une structure industrielle. Résultats de applications uni et bidimensionnelles aux matériaux composites stratifiés, modélisés par la méthode EFG sont comparés avec les obtenus par éléments finis. A la fin de la thèse, une extension de la méthodologie à l’optimisation fiabiliste est proposée à travers la méthode des facteurs optimaux de sûreté. Pour cela, sont présentes des applications pour la minimisation du poids, en exigent un indice de fiabilité cible, aux systèmes modélisés par la méthode de EF et par la méthode EFG. / Structural Engineering designs must be adapted to satisfy performance criteria such as safety, functionality, durability and so on, generally established in pre-design phase. Traditionally, engineering designs use deterministic information about dimensions, material properties and external loads. However, the structural behaviour of the complex models needs to take into account different kinds and levels of uncertainties. In this sense, this analysis has to be made preferably in terms of probabilities since the estimate the probability of failure is crucial in Structural Engineering. Hence, reliability is the probability related to the perfect operation of a structural system throughout its functional lifetime; considering normal operation conditions. A major interest of reliability analysis is to find the best compromise between cost and safety. Aiming to eliminate main difficulties of traditional reliability methods such as First and Second Order Reliability Method (FORM and SORM, respectively) this work proposes the so-called Heuristic-based Reliability Method (HBRM). The heuristic optimization techniques used in this method are: Genetic Algorithms, Particle Swarm Optimization and Ant Colony Optimization. The HBRM does not require initial guess of design solution because it’s based on multidirectional research. Moreover, HBRM doesn’t need to compute the partial derivatives of the limit state function with respect to the random variables. The evaluation of these functions is carried out using analytical, semi analytical and numerical models. To this purpose were carried out the following approaches: Ritz method (using MATLAB®), finite element method (through MATLAB® and ANSYS®) and Element-free Galerkin method (via MATLAB®). The combination of these reliability analyses, optimization procedures and modelling methods configures the design based reliability methodology proposed in this work. The previously cited numerical tools were used to evaluate its advantages and disadvantages for specific applications and to demonstrate the applicability and robustness of this alternative approach. Good agreement was observed between the results of bi and three-dimensional applications in statics, stability and dynamics. These numerical examples explore explicit and implicit multi limit state functions for several random variables. Deterministic validation and stochastic analyses lied to Muscolino perturbation method give the bases for reliability analysis in 2-D and 3-D fluidstructure interaction problems. This methodology is applied to an industrial structure lied to a modal synthesis. The results of laminated composite plates modelled by the EFG method are compared with their counterparts obtained by finite elements. Finally, an extension in reliability based design optimization is proposed using the optimal safety factors method. Therefore, numerical applications that perform weight minimization while taking into account a target reliability index using mesh-based and meshless models are proposed. / Os projectos de Engenharia Estrutural devem se adaptar a critérios de desempenho, segurança, funcionalidade, durabilidade e outros, estabelecidos na fase de anteprojeto. Tradicionalmente, os projectos utilizam informações de natureza deterministica nas dimensões, propriedades dos materiais e carregamentos externos. No entanto, a modelagem de sistemas complexos implica o tratamento de diferentes tipos e níveis de incertezas. Neste sentido, a previsão do comportamento deve preferivelmente ser realizada em termos de probabilidades dado que a estimativa da probabilidade de sucesso de um critério é uma necessidade primária na Engenharia Estrutural. Assim, a confiabilidade é a probabilidade relacionada à perfeita operação de um sistema estrutural durante um determinado tempo em condições normais de operação. O principal objetivo desta análise é encontrar o melhor compromisso entre custo e segurança. Visando a paliar as principais desvantagens dos métodos tradicionais FORM e SORM (First and Second Order Reliability Method), esta tese propõe um método de análise de confiabilidade baseado em técnicas de optimização heurísticas denominado HBRM (Heuristic-based Reliability Method). Os métodos heurísticos de otimização utilizados por este método são: Algoritmos Genéticos (Genetic Algorithms), Optimização por Bandos Particulares (Particle Swarm Optimisation) e Optimização por Colónia de Formigas (Ant Colony Optimization). O método HBRM não requer de uma estimativa inicial da solução e opera de acordo com o princípio de busca multidirecional, sem efetuar o cálculo de derivadas parciais da função de estado limite em relação às variáveis aleatórias. A avaliação das funções de estado limite é realizada utilizando modelos analíticos, semi analíticos e numéricos. Com este fim, a implementação do método de Ritz (via MATLAB®), o método dos elementos terminados (via MATLAB® e ANSYS®) e o método sem malha de Galerkin (Element-free Galerkin via MATLAB®) foi necessária. A combinação da análise de confiabilidade, os métodos de optimização e métodos de modelagem, acima mencionados, configura a metodologia de projeto proposta nesta tese. A utilização de diferentes métodos de modelagem e de otimização teve por objetivo destacar as suas vantagens e desvantagens em aplicações específicas, assim como demonstrar a aplicabilidade e a robustez da metodologia de análise de confiabilidade utilizando estas técnicas numéricas. Isto foi possível graças aos bons resultados encontrados na maior parte das aplicações. As aplicações foram uni, bi e tridimensionais em estática, estabilidade e dinâmica de estruturas, as quais exploram a avaliação explícita e implícita de funções de estado limite de várias variáveis aleatórias. Procedimentos de validação déterministica e de análises estocásticas, aplicando o método de perturbação de Muscolino, fornecem as bases da análise de confiabilidade nas aplicações de problemas de iteração fluído-estrutura bi e tridimensionais. A metodologia é testada com uma estrutura industrial. Resultados de aplicações bidimensionais em estratificados compostos, modelados pelo método EFG são comparados com os obtidos por elementos finitos. No fim da tese, uma extensão da metodologia à optimização baseada em confiabilidade é proposta aplicando o método dos factores óptimos de segurança. Finalmente são apresentadas as aplicações para a minimização do peso em sistemas modelados pelo método de EF e o método EFG que exigem um índice de confiabilidade alvo.
119

Génération automatique de distributions/ordonnancements temps réel, fiables et tolérants aux fautes

Kalla, Hamoudi 17 December 2004 (has links) (PDF)
Les systèmes réactifs sont de plus en plus présents dans de nombreux secteurs d´activité tels que l´automobile, les télécommunications et l´aéronautique. Ces systèmes réalisent des tâches complexes qui sont souvent critiques. Au vu des conséquences catastrophiques que pourrait entraîner une défaillance dans ces systèmes, suite à la présence de fautes matérielles (processeurs et média de communication), il est essentiel de prendre en compte la tolérance aux fautes dans leur conception. En outre, plusieurs domaines exigent une évaluation quantitative du comportement de ces systèmes par rapport à l'occurrence et à l'activation des fautes. Afin de concevoir des systèmes sûrs de fonctionnement, j'ai proposé dans cette thèse trois méthodologies de conception basées sur la théorie d'ordonnancement et la redondance active et passive des composants logiciels du système. Ces trois méthodologies permettent de résoudre le problème de la génération automatique de distribution et d'ordonnancements temps réel, fiables et tolérants aux fautes. Ce problème étant NP-difficile, ces trois méthodologies sont basées sur des heuristiques de type ordonnancement de liste. Plus particulièrement, les deux premières méthodologies traitent le problème de la tolérance aux fautes matérielles des processeurs et des media de communication, respectivement pour des architectures à liaisons point-à-point et des architectures à liaison bus. La troisième méthodologie traite le problème de l'évaluation quantitative d'une distribution/ordonnancement en terme de fiabilité à l'aide d'une heuristique bi-critère originale. Ces méthodologies offrent de bonnes performances sur des graphes d'algorithme et d'architecture générés aléatoirement.
120

Ordonnancement en régime permanent sur plates-formes hétérogènes

Gallet, Matthieu 20 October 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'ordonnancement d'applications sur des plate- formes hétérogènes à grande échelle. Dans la mesure où le problème général est trop complexe pour être résolu de façon exacte, nous considérons deux relaxations. Tâches divisibles : La première partie est consacrée aux tâches divisibles, qui sont des appli- cations parfaitement parallèles et pouvant être arbitrairement subdivisées pour être réparties sur de nombreux processeurs. Nous cherchons à minimiser le temps de travail total lors de l'exécution de plusieurs applications aux caractéristiques différentes sur un réseau linéaire de processeurs, sachant que les données peuvent être distribuées en plusieurs tournées. Le nombre de ces tour- nées étant fixé, nous décrivons un algorithme optimal pour déterminer précisément ces tournées, et nous montrons que toute solution optimale requiert un nombre infini de tournées, résultat restant vrai sur des plate-formes non plus linéaires mais en étoile. Nous comparons également notre méthode à des méthodes déjà existantes. Ordonnancement en régime permanent : La seconde partie s'attache à l'ordonnancement de nombreuses copies du même graphe de tâches représentant une application donnée. Au lieu de chercher à minimiser le temps de travail total, nous optimisons uniquement le cœur de l'or- donnancement. Tout d'abord, nous étudions des ordonnancements cycliques de ces applications sur des plate-formes hétérogènes, basés sur une seule allocation pour faciliter leur utilisation. Ce problème étant NP-complet, nous donnons non seulement un algorithme optimal, mais éga- lement différentes heuristiques permettant d'obtenir rapidement des ordonnancements efficaces. Nous les comparons à ces méthodes classiques d'ordonnancement, telles que HEFT. Dans un second temps, nous étudions des applications plus simples, faites de nombreuses tâches indépendantes, que l'on veut exécuter sur une plate-forme en étoile. Les caractéristiques de ces tâches variant, nous supposons qu'elles peuvent être modélisées par des variables aléatoires. Cela nous permet de proposer une ε-approximation dans un cadre clairvoyant, alors que l'ordonnan- ceur dispose de toutes les informations nécessaires. Nous exposons également des heuristiques dans un cadre non-clairvoyant. Ces différentes méthodes montrent que malgré la dynamicité des tâches, il reste intéressant d'utiliser un ordonnancement statique et non des stratégies plus dynamiques comme On-Demand. Nous nous intéressons ensuite à des applications, dont plusieurs tâches sont répliquées sur plu- sieurs processeurs de la plate-forme de calcul afin d'améliorer le débit total. Dans ce cas, même si les différentes instances sont distribuées aux processeurs tour à tour, le calcul du débit est difficile. Modélisant le problème par des réseaux de Petri temporisés, nous montrons comment le calculer, prouvant également que ce calcul peut être fait en temps polynomial avec le modèle Strict One-Port. Enfin, le dernier chapitre est consacré à l'application de ces techniques à un processeur multi- cœur hétérogène, le Cell d'IBM. Nous présentons donc un modèle théorique de ce processeur ainsi qu'un algorithme d'ordonnancement adapté. Une implémentation réelle de cet ordonnanceur a été effectuée, permettant d'obtenir des débits intéressants tout en simplifiant l'utilisation de ce processeur et validant notre modèle théorique.

Page generated in 0.0893 seconds