Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
151 |
Genetic Algorithm Applied to Generalized Cell Formation Problems / Les algorthmes génétiques appliqués aux problèmes de formation de cellules de production avec routages et processes alternatifsVin, Emmanuelle 19 March 2010 (has links)
The objective of the cellular manufacturing is to simplify the management of the
manufacturing industries. In regrouping the production of different parts into clusters,
the management of the manufacturing is reduced to manage different small
entities. One of the most important problems in the cellular manufacturing is the
design of these entities called cells. These cells represent a cluster of machines that
can be dedicated to the production of one or several parts. The ideal design of a
cellular manufacturing is to make these cells totally independent from one another,
i.e. that each part is dedicated to only one cell (i.e. if it can be achieved completely
inside this cell). The reality is a little more complex. Once the cells are created,
there exists still some traffic between them. This traffic corresponds to a transfer of
a part between two machines belonging to different cells. The final objective is to
reduce this traffic between the cells (called inter-cellular traffic).
Different methods exist to produce these cells and dedicated them to parts. To
create independent cells, the choice can be done between different ways to produce
each part. Two interdependent problems must be solved:
• the allocation of each operation on a machine: each part is defined by one or
several sequences of operations and each of them can be achieved by a set of
machines. A final sequence of machines must be chosen to produce each part.
• the grouping of each machine in cells producing traffic inside and outside the
cells.
In function of the solution to the first problem, different clusters will be created to
minimise the inter-cellular traffic.
In this thesis, an original method based on the grouping genetic algorithm (Gga)
is proposed to solve simultaneously these two interdependent problems. The efficiency
of the method is highlighted compared to the methods based on two integrated algorithms
or heuristics. Indeed, to form these cells of machines with the allocation
of operations on the machines, the used methods permitting to solve large scale
problems are generally composed by two nested algorithms. The main one calls the
secondary one to complete the first part of the solution. The application domain goes
beyond the manufacturing industry and can for example be applied to the design of
the electronic systems as explained in the future research.
|
152 |
Resolution improvement in fluorescence and phase optical microscopyMudry, Emeric 25 September 2012 (has links) (PDF)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice.
|
153 |
Localisation de sources par méthodes à haute résolution et par analyse parcimonieuseMa, Hua 24 June 2011 (has links) (PDF)
Cette thèse a pour but d'estimer la position et la puissance de sources sonores ponctuelles à l'aide d'une antenne acoustique. Nous nous intéressons d'abord à la directivité des antennes acoustiques pondérées. On montre qu'une telle antenne, appelée antenne conventionnelle, même si elle est à directivité optimale, est inutilisable pour localiser plusieurs sources sonores. Des traitements adaptatifs d'antenne sont donc exigés et les méthodes dites à haute résolution sont introduites. Elles sont basées sur l'estimation de la matrice de covariance des signaux issus des capteurs et présentent l'avantage de s'affranchir des limitations naturelles du traitement d'antenne conventionnel. Cependant, ces méthodes nécessitent l'emploi d'un modèle de propagation et sont donc par nature peu robustes aux erreurs de modèle, ce qui peut être parfois un handicap et dégrader leurs performances. Par la suite, nous présentons une nouvelle méthode de séparation des sources utilisant une représentation parcimonieuse des signaux. Nous montrons que ses performances sont meilleures que celles obtenues par les méthodes à haute résolution et notre algorithme parvient à une bonne résolution spatiale, même sous des conditions défavorables. Cette méthode est appliquée aux sources corrélées et décorrélées, à bande étroite et à large bande, en champ proche et en champ lointain. Pour finir, nous présentons des méthodes pour estimer la puissance des sources sonores. Des simulations numériques et des expérimentations en chambre anéchoïque sont effectuées afin de vérifier et de valider les analyses et les résultats théoriques
|
154 |
Développement d'un banc de thermographie infrarouge pour l'analyse in-situ de la fiabilité des microsystèmesFillit, Chrystelle 15 February 2011 (has links) (PDF)
Au cours des dernières années, l'essor spectaculaire des microsystèmes (ou MEMS), qui touche tous les domaines industriels, est à l'origine de nombreux et nouveaux progrès technologiques. Néanmoins, dans ce contexte prometteur de large envergure, la fiabilité des MEMS s'avère être la problématique à améliorer pour franchir la phase d'industrialisation à grande échelle. C'est dans le cadre de cette thématique de fiabilité des microsystèmes, que s'inscrit ce travail.La température étant un paramètre majeur entrant dans de nombreux mécanismes d'endommagement des MEMS, notre étude présente la conception et la réalisation d'un banc de thermographie infrarouge de haute résolution (2 µm), associé à la mise en œuvre d'une méthodologie d'analyse et de traitement des mesures infrarouges.Ce dispositif innovant permet un diagnostic in-situ, sans contact et rapide des défaillances des MEMS par mesures locales et quantitatives des pertes thermiques associées. Cet outil constitue une avancée importante pour détecter, mesurer et comprendre les mécanismes d'endommagement des MEMS. Il nous permet de reconstituer des images thermiques de tout type de microsystème en cours de fonctionnement ou soumis à des tests de vieillissement accéléré, et ceci afin de réaliser une analyse fine et rapide de leur fiabilité.Ce travail apporte de nouveaux résultats en ce qui concerne la détection des mécanismes de défaillance de différents types de MEMS-RF et tout particulièrement des MEMS-RF avec contact électrique.
|
155 |
Algorithmes d'Ensemble Actif pour le LASSOLoth, Manuel 08 July 2011 (has links) (PDF)
Cette thèse aborde le calcul de l'opérateur LASSO (Least Absolute Shrinkage and Selection Operator), ainsi que des problématiques qui lui sont associées, dans le domaine de la régression. Cet opérateur a suscité une attention croissante depuis son introduction par Robert Tibshirani en 1996, par sa capacité à produire ou identi fier des modèles linéaires parcimonieux à partir d'observations bruitées, la parcimonie signi fiant que seules quelques unes parmi de nombreuses variables explicatives apparaissent dans le modèle proposé. Cette sélection est produite par l'ajout à la méthode des moindres-carrés d'une contrainte ou pénalisation sur la somme des valeurs absolues des coe fficients linéaires, également appelée norme l1 du vecteur de coeffi cients. Après un rappel des motivations, principes et problématiques de la régression, des estimateurs linéaires, de la méthode des moindres-carrés, de la sélection de modèle et de la régularisation, les deux formulations équivalentes du LASSO contrainte ou régularisée sont présentées; elles dé finissent toutes deux un problème de calcul non trivial pour associer un estimateur à un ensemble d'observations et un paramètre de sélection. Un bref historique des algorithmes résolvant ce problème est dressé, et les deux approches permettant de gérer la non-di fferentiabilité de la norme l1 sont présentées, ainsi que l'équivalence de ces problèmes avec un programme quadratique. La seconde partie se concentre sur l'aspect pratique des algorithmes de résolution du LASSO. L'un d'eux, proposé par Michael Osborne en 2000, est reformulé. Cette reformulation consiste à donner une défi nition et explication générales de la méthode d'ensemble actif, qui généralise l'algorithme du simplex à la programmation convexe, puis à la spéci fier progressivement pour la programmation LASSO, et à adresser les questions d'optimisation des calculs algébriques. Bien que décrivant essentiellement le même algorithme que celui de Michael Osborne, la présentation qui en est faite ici a l'ambition d'en exposer clairement les mécanismes, et utilise des variables di fférentes. Outre le fait d'aider à mieux comprendre cet algorithme visiblement sous-estimé, l'angle par lequel il est présenté éclaire le fait nouveau que la même méthode s'applique naturellement à la formulation régularisée du LASSO, et non uniquement à la formulation contrainte. La populaire méthode par homotopie (ou LAR-LASSO, ou LARS) est ensuite présentée comme une dérivation de la méthode d'ensemble actif, amenant une formulation alternative et quelque peu simpli fiée de cet algorithme qui fournit les solutions du LASSO pour chaque valeur de son paramètre. Il est montré que, contrairement aux résultats d'une étude récente de Jerome H. Friedman, des implémentations de ces algorithmes suivant ces reformulations sont plus effi caces en terme de temps de calcul qu'une méthode de descente par coordonnées. La troisième partie étudie dans quelles mesures ces trois algorithmes (ensemble actif, homotopie, et descente par coordonnées) peuvent gérer certains cas particuliers, et peuvent être appliqués à des extensions du LASSO ou d'autres problèmes similaires. Les cas particuliers incluent les dégénérescences, comme la présence de variables lineairement dépendantes, ou la sélection/désélection simultanée de variables. Cette dernière problématique, qui était délaissée dans les travaux précédents, est ici expliquée plus largement et une solution simple et efficace y est apportée. Une autre cas particulier est la sélection LASSO à partir d'un nombre très large, voire infi ni de variables, cas pour lequel la méthode d'ensemble actif présente un avantage majeur. Une des extensions du LASSO est sa transposition dans un cadre d'apprentissage en ligne, où il est désirable ou nécessaire de résoudre le problème sur un ensemble d'observations qui évolue dans le temps. A nouveau, la flexibilité limitée de la méthode par homotopie la disquali fie au pro fit des deux autres. Une autre extension est l'utilisation de la pénalisation l1 sur d'autres fonction coûts que la norme l2 du résidu, ou en association avec d'autres pénalisations, et il est rappelé ou établi dans quelles mesures et de quelle façon chaque algorithme peut être transposé à ces problèmes.
|
156 |
Métaheuristiques hybrides pour la résolution du problème d'ordonnancement de voitures dans une chaîne d'assemblage automobileNoël, Sébastien January 2007 (has links) (PDF)
La littérature scientifique propose une grande variété de stratégies pour la résolution des problèmes d'optimisation combinatoire (POC). Ces problèmes sont d'une grande complexité et demandent des méthodes évoluées pour les résoudre. Les algorithmes exacts, comme la programmation linéaire en nombres entiers (PLNE) à l'aide de l'algorithme Branch and Bound (B&B), arrivent à trouver une solution optimale pour certaines instances de problèmes. Par contre, plus la taille du problème à résoudre est grande, plus ces algorithmes ont de la difficulté à en venir à bout. Les métaheuristiques représentent alors une alternative intéressante pour trouver une solution de qualité acceptable dans des délais très courts. Toutefois, il est impossible de garantir qu'une métaheuristique trouvera la solution optimale d'un problème. Parmi ces méthodes, on retrouve l'optimisation par colonies de fourmis (OCF), qui a su faire ses preuves pendant les dernières années pour la résolution de différents problèmes d'optimisation combinatoire. Une autre avenue consiste à créer des algorithmes hybrides. L'objectif principal de ce mémoire est de proposer trois algorithmes hybridant un OCF et la PLNE pour résoudre le problème d'ordonnancement de voitures (POV). Le POV est un POC qui consiste à déterminer dans quel ordre placer un ensemble de voitures à produire sur une chaîne d'assemblage en se soumettant à un ensemble de contraintes. On cherche parfois la séquence minimisant le nombre de conflits, où un conflit représente une surcharge de travail occasionnée à un poste particulier de l'atelier de montage par l'arrivée successive de plusieurs voitures similaires, ou encore minimisant le nombre de changements de couleurs à l'atelier de peinture. Pour simplifier le problème, on ne s'attardera qu'aux contraintes liées à l'atelier de montage où sont installées les différentes options des voitures. Cette version théorique du POV que l'on retrouve dans la littérature est une simplification du problème industriel. Différentes méthodes ont été proposées pour solutionner ce problème. Celles qui attirent notre attention sont l'OCF et la PLNE. On cherchera, dans ce mémoire, à concevoir des approches hybrides exploitant les forces de ces deux approches. Il sera également possible de comparer la performance des algorithmes hybrides avec les résultats obtenus avec l'OCF pour établir l'apport de telles hybridations. Le premier algorithme hybride proposé consiste à créer un sous-problème à partir de la meilleure solution de chaque cycle de l'OCF et de résoudre ce sous-problème avec le B&B. Cette méthode ne s'est pas avérée très performante, car aucune intensification n'est effectuée sur une solution. Le second algorithme tente de combler cette lacune en appelant le B&B de manière répétitive à un intervalle régulier de cycles de l'OCF. Cet appel répété du B&B représente, en fait, une recherche locale exacte (RLE). Pour l'ensemble des problèmes utilisés pour tester cette hybridation, des résultats de qualité légèrement supérieure ou égale à l'OCF, intégrant une recherche locale, ont été obtenus pour environ deux problèmes sur trois. On peut en dire autant de la troisième hybridation proposée, qui consiste, dans un premier temps, à exécuter l'OCF et à fournir la meilleure solution trouvée comme solution de départ à la RLE. Les objectifs fixés dans cette recherche ont été atteints en concevant des méthodes de résolution hybrides, adaptées au POV, combinant une métaheuristique et une méthode exacte. On avait aussi pour but d'établir la performance des méthodes hybrides face à leurs contreparties singulières. En règle générale, les hybridations parviennent à donner des résultats de qualité équivalente à celle des résultats de l'OCF avec recherche locale mais avec un coût en temps d'exécution. Il s'agit tout de même d'une conclusion réjouissante puisque des améliorations pourraient être apportées à ces algorithmes pour les rendre encore plus performants. On a aussi exploré quelques façons de créer des sous-problèmes plus faciles à résoudre par un algorithme exact. Ceci ouvre donc une porte à une autre approche de la résolution de POC.
|
157 |
La communauté d'apprentissage comme stratégie de renforcement communautaire pour la résolution de conflit socio-environnementaux associés à un développement métallurgique-minier à La Oroya, PérouSilva Gálvez, Carlos January 2009 (has links) (PDF)
La Oroya est une ville péruvienne classée parmi les dix villes plus polluées du monde selon l'Institut Blacksmith. La transnationale minière-métallurgique Doe Run (USA) y est installée depuis 1997. La population est confrontée à l'urgence de trouver des solutions aux problèmes socio-environnementaux critiques qui l'affectent. Malgré les efforts de mobilisation sociale vers des actions concertées, des obstacles importants rendent ceci difficile. Bien qu'il existe divers espaces de dialogue, la polarisation croissante de la population a provoquée un conflit social qui complique les efforts de mise en oeuvre des plans qui exigent des interventions appropriées de la part des décideurs et de l'entreprise. Des efforts ont été également déployés par le gouvernement péruvien pour mettre en oeuvre un plan de décontamination qui interpelle les divers acteurs sociaux (OG et ONG), qui se butent également à l'éclatement social, mais qui ne comptant pas sur un consensus minimal pour agir. Cette recherche s'est proposée d'explorer en profondeur le cas de La Oroya pour mieux saisir ses caractéristiques, sa problématique socio-environnementale, ses enjeux et défis et ce selon les points de vie des différents acteurs de la situation. Elle se proposait également d'identifier des pistes de solution de cette situation de polarisation et de conflit. La perspective de formation de communautés d'apprentissage a été, en ce sens, explorée. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR: approche collaborative, conflits environnementaux, éducation relative à l'environnement, communauté d'apprentissage, développement minier, La Oroya, Pérou.
|
158 |
Identification et mise à l'épreuve des variables permettant la prédiction du niveau de difficulté de tâches d'évaluation pour des équations du premier degré en mathématiques au secondaireSakr, Fadia January 2009 (has links) (PDF)
Cette étude s'intéresse à l'élaboration de tâches d'évaluation pour des équations du premier degré à deux inconnues en mathématiques, au secondaire. Nous nous sommes intéressés plus précisément à l'identification des paramètres permettant de connaître a priori le niveau de difficulté d'un échantillon de tâches d'évaluation en algèbre et notre recherche s'est limitée à la modélisation d'un seul paramètre, à savoir le niveau de difficulté. Le travail effectué dans le cadre de cette recherche a porté sur l'identification et la classification de variables prédictives pour le niveau de difficulté. Afin d'atteindre nos objectifs, nous avons choisi de travailler avec les données de la banque d'instruments de mesure du réseau secondaire (BIM). Les épreuves desquelles résultent ces données ont été soumises à des élèves de plusieurs commissions scolaires de la province de Québec. À partir de ces données, nous avons procédé au classement des tâches d'évaluation reliées aux équations du premier degré. Par la suite, une application du modèle de régression linéaire a été réalisée afin de vérifier si le taux de réussite des tâches d'évaluation pouvait être expliqué par les variables prédictives retenues. Les résultats obtenus ont montré que les variables prédictives expliquent le taux de réussite des tâches d'évaluation des équations du premier degré avec un coefficient de détermination de 0,78. Ainsi, même si les tâches d'évaluation utilisées pour cette étude ont été produites par des enseignants différents provenant de plusieurs régions du Québec, il a été possible de prédire efficacement leur niveau de difficulté. Les résultats obtenus par les corrélations sont comparables à ceux d'autres études du même type. L'originalité de notre travail a été de montrer comment élaborer des tâches d'évaluation en utilisant des variables prédictives. Ce concept a été validé selon deux modèles: un modèle à une équation et l'autre à deux équations. De plus, nous avons présenté des étapes afin de construire des tâches d'évaluation avec un niveau de difficulté déterminé à l'avance. Au niveau pratique, le modèle développé pourra être utilisé directement par les enseignants lors des évaluations classiques en salle de classe. Mais aussi pour le développement d'environnements d'évaluation informatisés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Production de tâches d'évaluation, Équations du premier degré, Variables prédictives, Niveau de difficulté de tâches d'évaluation.
|
159 |
Problèmes d'interaction de santé et sécurité au travail et de gestion des ressources humainesDubé, Jessica 12 1900 (has links) (PDF)
Le présent mémoire s'inscrit dans un projet d'enseignement et d'intégration des apprentissages en gestion des situations de santé et de sécurité et au travail (SST) et de gestion des ressources humaines (GRH) (Gravel et coll., 2009). Le but du projet initial était d'élaborer une banque d'études de cas à partir de situations réelles d'entreprises documentées par des entretiens menés auprès des responsables de SST et des directeurs des RH. Ce projet pédagogique est né du constat qu'il existe une littérature importante portant sur les problématiques de SST et de GRH, mais peu d'études se sont intéressées à l'interaction entre ces deux dimensions. Ce mémoire fait une analyse secondaire des données issues de cette banque de onze études de cas centrées sur l'interaction entre les problématiques de SST et de GRH. Les questions de recherche qui ont orienté la réalisation de ce mémoire sont : quels sont les problèmes d'interaction de SST et de GRH dans les entreprises étudiées? Comment les entreprises les ont-elles résolus? En cours de réalisation, deux éléments ont émergé systématiquement des entretiens, les représentants de toutes les entreprises ont identifié un problème de société (vieillissement ou pénurie de la main-d’œuvre, intégration des immigrants, etc.) comme cause à l'interaction des problèmes de SST et de GRH. Au moment de la cueillette des données, les entreprises n'avaient pas résolu leur problème d'interaction SST et GRH. Néanmoins, certaines avaient fait preuve de résilience, elles avaient emprunté des voies inhabituelles d'analyse et de résolution de problèmes pour corriger les situations de façon novatrice. Ces deux éléments, les problèmes de sociétés et la résilience, nous ont incités à recentrer le projet, et à ajouter au mémoire, la question de recherche suivante : quelles sont les stratégies de résilience des entreprises face aux problèmes d'interaction de SST et de GRH? Les résultats indiquent que les problèmes d'interaction en matière de SST et de GRH se sont révélés à la suite d'évènements déclencheurs ou accélérateurs. Les entreprises dites résilientes sont celles qui ont eu l'initiative et les moyens de résoudre ces problèmes en reconnaissance la valeur de l'erreur des actions passées pour adopter des solutions inhabituelles. La cueillette des données s'est faite entre juin 2009 et août 2010. Notre échantillon est constitué de onze entreprises volontaires, œuvrant dans quelques secteurs d'activités privés et publics. Elles ont été recrutées via les réseaux professionnels de l'équipe de recherche, dix sont des grandes entreprises (>200 travailleurs), établies dans la région métropolitaine et périphérie.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : santé et sécurité au travail, gestion des ressources humaines, problèmes sociétaux, résilience organisationnelle, processus de résolution de problème
|
160 |
Évaluation de l'impact de la simplification linguistique sur la réussite en résolution de problèmes mathématiques chez les élèves d'accueil, allophones et francophones du secondaireFréchette, Sonia 05 1900 (has links) (PDF)
Lorsque des élèves tentent de résoudre un problème mathématique écrit, il n'est pas rare de les entendre se plaindre de la difficulté de la tâche. Ainsi, on serait en droit de se demander ce qui rend à leurs yeux cet exercice si complexe et exigeant. Outre la réflexion exigée par la tâche mathématique que comporte la résolution d'un problème, une tâche préalable et qui s'avère parfois très difficile pour eux complique le processus. Il s'agit de la compréhension linguistique du texte et de la compréhension des énoncés qui s'y rattachent. Dans cette étude, nous nous intéresserons plus précisément à la composition linguistique des énoncés des problèmes mathématiques, c'est-à-dire aux facteurs linguistiques qui complexifient inutilement la tâche de compréhension linguistique du texte et de compréhension de la tâche à accomplir pour les élèves. Notre objectif principal est de mesurer et de comparer la performance d'élèves en classes d'accueil, d'élèves allophones intégrés au système régulier et d'élèves francophones provenant de classes régulières au secondaire confrontés à des problèmes mathématiques dont les énoncés seraient simplifiés linguistiquement avec d'autres problèmes non simplifiés. Après l'analyse des résultats de cinq variables linguistiques, nous avons découvert que l'influence de la simplification linguistique de l'anaphore assurée par le pronom en s'est révélée significative pour la majorité des catégories comparées. D'autre part, nous avons noté une différence significative entre la performance des élèves d'accueil et les autres lorsque le contenu culturel de la mise en situation correspond à leur expérience d'adolescents de 14 ans vivant à Montréal.
______________________________________________________________________________
|
Page generated in 0.0564 seconds