• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 237
  • 82
  • 37
  • 3
  • 1
  • Tagged with
  • 350
  • 178
  • 123
  • 91
  • 78
  • 66
  • 56
  • 49
  • 49
  • 47
  • 46
  • 39
  • 36
  • 34
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

La modalité et ses réalisations en français / Modality and its manifestations in french

Mai, Udo 29 October 2018 (has links)
La modalité est un phénomène linguistique qui ne peut pas être défini à partir de critères uniquement sémantiques. Une définition complète de la modalité doit prendre en compte ses propriétés sémantiques, fonctionnelles et structurelles. Dans la présente étude, nous bâtissons d’abord un cadre théorique en nous servant d’une approche onomasiologique, pour ensuite analyser les différentes manières dont les sens modaux peuvent être exprimés en français de façon sémasiologique. Cette analyse s’attarde aussi sur des porteurs de modalité moins étudiés comme les particules modales, les verbes et les connecteurs impliquant le statut factuel ou assertif de la proposition qu’ils introduisent et le rapport entre la structure informationnelle et la modalité. Notre analyse s’appuie sur les corpus Frantext, WebCorp, Wortschatz Leipzig et la collection French Web 2012 de Sketch Engine et comprend plus de douze milliards de mots. Certaines caractéristiques des éléments modaux du français ne peuvent être relevées que lorsqu’ils interagissent avec d’autres éléments modalisant la même proposition. L’étude de ces manifestations complexes de la modalité complète ce portrait de la catégorie sémantico-fonctionnelle de la modalité en français. / Modality is a linguistic phenomenon that cannot be defined in purely semantic terms. A complete definition of modality has to take into account all of its semantic, functional, and structural properties. In the present work, we first build up a theoretic framework based on an onomasiological approach, and then analyze the different ways modal meanings can be expressed in French from a semasiological point of view. This analysis includes the elements most prototypical for the category of modality, such as modal verbs, modal adverbs and mood. Furthermore, it also takes into account less prototypical modal elements, such as modal particles, verbs and connectors implying the factual or assertive status of the proposition they introduce, as well as the relation between information structure and modality. The analysis is based upon the corpora Frantext, WebCorp, Wortschatz Leipzig and the text collection French Web 2012 in Sketch Engine. Certain properties of modal elements in French can only be detected when they interact with other elements modalizing the same proposition. The study of these complex manifestations of modality completes this portrait of the functional-semantic category of modality in contemporary French.
42

Solving Hard Combinatorial Optimization Problems using Cooperative Parallel Metaheuristics / Utilisation de méta-heuristiques coopératives parallèles pour la résolution de problèmes d'optimisation combinatoire difficiles

Munera Ramirez, Danny 27 September 2016 (has links)
Les Problèmes d’Optimisation Combinatoire (COP) sont largement utilisés pour modéliser et résoudre un grand nombre de problèmes industriels. La résolution de ces problèmes pose un véritable défi en raison de leur inhérente difficulté, la plupart étant NP-difficiles. En effet, les COP sont difficiles à résoudre par des méthodes exactes car la taille de l’espace de recherche à explorer croît de manière exponentielle par rapport à la taille du problème. Les méta-heuristiques sont souvent les méthodes les plus efficaces pour résoudre les problèmes les plus difficiles. Malheureusement, bien des problèmes réels restent hors de portée des meilleures méta-heuristiques. Le parallélisme permet d’améliorer les performances des méta-heuristiques. L’idée de base est d’avoir plusieurs instances d’une méta-heuristique explorant de manière simultanée l’espace de recherche pour accélérer la recherche de solution. Les meilleures techniques font communiquer ces instances pour augmenter la probabilité de trouver une solution. Cependant, la conception d’une méthode parallèle coopérative n’est pas une tâche aisée, et beaucoup de choix cruciaux concernant la communication doivent être résolus. Malheureusement, nous savons qu’il n’existe pas d’unique configuration permettant de résoudre efficacement tous les problèmes. Ceci explique que l’on trouve aujourd’hui des systèmes coopératifs efficaces mais conçus pour un problème spécifique ou bien des systèmes plus génériques mais dont les performances sont en général limitées. Dans cette thèse nous proposons un cadre général pour les méta-heuristiques parallèles coopératives (CPMH). Ce cadre prévoit plusieurs paramètres permettant de contrôler la coopération. CPMH organise les instances de méta-heuristiques en équipes ; chaque équipe vise à intensifier la recherche dans une région particulière de l’espace de recherche. Cela se fait grâce à des communications intra-équipes. Des communications inter-équipes permettent quant a` elles d’assurer la diversification de la recherche. CPMH offre à l’utilisateur la possibilité d’ajuster le compromis entre intensification et diversification. De plus, ce cadre supporte différentes méta-heuristiques et permet aussi l’hybridation de méta-heuristiques. Nous proposons également X10CPMH, une implémentation de CPMH, écrite en langage parallèle X10. Pour valider notre approche, nous abordons deux COP du monde industriel : des variantes difficiles du Problème de Stable Matching (SMP) et le Problème d’Affectation Quadratique (QAP). Nous proposons plusieurs méta-heuristiques originales en version séquentielle et parallèle, y compris un nouvelle méthode basée sur l’optimisation extrémale ainsi qu’un nouvel algorithme hybride en parallèle coopératif pour QAP. Ces algorithmes sont implémentés grâce à X10CPMH. L’évaluation expérimentale montre que les versions avec parallélisme coopératif offrent un très bon passage à l’échelle tout en fournissant des solutions de haute qualité. Sur les variantes difficiles de SMP, notre méthode coopérative offre des facteurs d’accélération super-linéaires. En ce qui concerne QAP, notre méthode hybride en parallèle coopératif fonctionne très bien sur les cas les plus difficiles et permet d’améliorer les meilleures solutions connues de plusieurs instances. / Combinatorial Optimization Problems (COP) are widely used to model and solve real-life problems in many different application domains. These problems represent a real challenge for the research community due to their inherent difficulty, as many of them are NP-hard. COPs are difficult to solve with exact methods due to the exponential growth of the problem’s search space with respect to the size of the problem. Metaheuristics are often the most efficient methods to make the hardest problems tractable. However, some hard and large real-life problems are still out of the scope of even the best metaheuristic algorithms. Parallelism is a straightforward way to improve metaheuristics performance. The basic idea is to perform concurrent explorations of the search space in order to speed up the search process. Currently, the most advanced techniques implement some communication mechanism to exchange information between metaheuristic instances in order to try and increase the probability to find a solution. However, designing an efficient cooperative parallel method is a very complex task, and many issues about communication must be solved. Furthermore, it is known that no unique cooperative configuration may efficiently tackle all problems. This is why there are currently efficient cooperative solutions dedicated to some specific problems or more general cooperative methods but with limited performances in practice. In this thesis we propose a general framework for Cooperative Parallel Metaheuristics (CPMH). This framework includes several parameters to control the cooperation. CPMH organizes the explorers into teams; each team aims at intensifying the search in a particular region of the search space and uses intra-team communication. In addition, inter-team communication is used to ensure search diversification. CPMH allows the user to tune the trade-off between intensification and diversification. However, our framework supports different metaheuristics and metaheuristics hybridization. We also provide X10CPMH, an implementation of our CPMH framework developed in the X10 parallel language. To assess the soundness of our approach we tackle two hard real-life COP: hard variants of the Stable Matching Problem (SMP) and the Quadratic Assignment Problem (QAP). For all problems we propose new sequential and parallel metaheuristics, including a new Extremal Optimization-based method and a new hybrid cooperative parallel algorithm for QAP. All algorithms are implemented thanks to X10CPMH. A complete experimental evaluation shows that the cooperative parallel versions of our methods scale very well, providing high-quality solutions within a limited timeout. On hard and large variants of SMP, our cooperative parallel method reaches super-linear speedups. Regarding QAP, the cooperative parallel hybrid algorithm performs very well on the hardest instances, and improves the best known solutions of several instances.
43

Incidence de la procédure expérimentale sur l'évaluation de l'efficacité des pharmacothérapies antidépressives / Impact of the experimental procedure on the measured effect of antidepressant therapies

Naudet, Florian 17 September 2013 (has links)
Les antidépresseurs sont les traitements pharmacologiques de choix de la dépression. Pourtant devant un nombre non négligeable d’études « négatives » et l’absence d’efficacité dans les dépressions peu sévères, la question de leur utilité reste controversée. Cette controverse présuppose que l’efficacité des antidépresseurs se mesure facilement. Pourtant, comme dans toute expérience, le dispositif expérimental peut influencer le résultat mis en évidence. L’objectif de cette thèse est justement d’explorer l’incidence de la procédure expérimentale sur l'effet mesuré des pharmacothérapies antidépressives. Est-ce que leur efficacité mesurée dans les études randomisées reflète leur effectivité (dans la « vraie vie ») ? Pour répondre à cette question, nous avons conduit une méta-analyse d’un large panel d’études de méthodologies très différentes. Une méta-régression a été réalisée pour modéliser la réponse au traitement en fonction des caractéristiques des études. Elle a permis de mettre en évidence 1/ une réponse supérieure dans les essais randomisés par rapport aux études observationnelles (possiblement plus représentatives de la « vraie vie »); 2/ une variation de la réponse en fonction de la durée de l’étude, du nombre de visites de suivi, de la population de patients inclus, du type d’analyse choisie, de la possibilité d’avoir un placebo et du design en aveugle. Une revue de la littérature apporte ensuite une perspective qualitative à la question posée. L’objectif était de décrire les dispositifs expérimentaux actuellement utilisés ou envisageables dans l’évaluation des antidépresseurs. La revue de la littérature 1/ a permis de préciser les limites des études actuelles en termes de validité interne (mesure des critères de jugement, attrition, levée de l’aveugle importance de la réponse placebo) et externe (difficultés majeures de généralisations des études); 2/ conduit à proposer une évaluation multimodale des antidépresseurs dans laquelle les études observationnelles auraient toute leur place. La question de la mesure est ensuite abordée à travers des simulations. Après avoir exploré l’impact du dispositif expérimental au niveau de l’essai en soi, le phénomène est analysé à un niveau plus global. Le choix a été fait d’un raisonnement par l’absurde, sur le terrain de la « comparative effectiveness ». L’objectif était de comparer les placebos d’antidépresseurs grâce à une méta-analyse en réseau. Ces comparaisons indirectes n’ont pas permis de mettre en évidence de différence entre placebos d’antidépresseurs. Un biais de publication a pu être mis en évidence et empêche de conclure formellement sur un résultat pourtant évident. Ce résultat ouvre une discussion sur le degré de confiance que l’on peut apporter à ce que l’on considère généralement comme des preuves scientifiques de l’effectivité de nos pratiques. Nos résultats impliquent un nouvel éclairage à la controverse sur les antidépresseurs en replaçant le débat sur le terrain épistémologique. / Antidepressant drugs have become the most prescribed and used pharmacological treatment for depressive disorders. Yet, their usefulness is still being debated in view of a significant number of “negative” studies and of their lack of efficacy in mild depressive disorders. This controversy presupposes that the efficacy of antidepressants can easily be measured. However, as in any experiment, the experimental method may influence the outcome. The aim of this thesis is precisely to explore the impact of the experimental procedures on the measured effect of antidepressant therapies. Also we ask the question of whether their efficacy measured in randomized trials reflects their “effectiveness” (in a “real life” setting)? To answer these questions, we performed a meta-analysis of a large number of studies with different methodologies. A meta-regression was performed to modelize the response to the treatment according to the studies’ characteristics. It highlighted 1/ a superior response in randomized trials compared to observational studies (possibly more representative of the “real life”); 2/ a variation of the response according to the duration of the study, to the number of follow-up visits, to the type of included patients, to the type of analysis, to the use or not of a placebo and to the use or not of a blind design. A review of the literature provides a qualitative prospect to the question. The objective was to describe the experimental designs used in the assessment of antidepressants and to identify possible innovations. The review of the literature 1/ has permitted to state precisely the limits of the studies in terms of internal validity (measurement of assessment criterions, attrition, unblinding, importance of the placebo response) and external validity (major difficulties with generalization of the studies’ results); 2/ leads to offer a multimodal evaluation of antidepressants in which observational studies would have their own place. Then the issue of measurement is specifically approached, using simulations. After exploring the impact of the experimental procedure at the level of the trial itself, the phenomenon is explored at a more global level. The choice of a reductio ad absurdum on the field of comparative effectiveness was decided. The aim was to compare the placebos of different antidepressants in a network meta-analysis. Indirect comparisons did not show any difference between placebos of antidepressants but a significant publication bias was detected. It does not allow drawing any firm conclusion on a result which is still obvious. This result invites discussion as to whether the evidence that we usually rely on provides us with a reasonable degree of certainty about the nature and effectiveness of our practices. Our results entail a new light on the controversy about the efficacy of antidepressants by replacing the debate on the epistemological ground.
44

Classification de textes : de nouvelles pondérations adaptées aux petits volumes / Text Classification : new weights suitable for small dataset

Bouillot, Flavien 16 April 2015 (has links)
Au quotidien, le réflexe de classifier est omniprésent et inconscient. Par exemple dans le processus de prise de décision où face à un élément (un objet, un événement, une personne) nous allons instinctivement chercher à rapprocher cet élément d'autres similaires afin d'adapter nos choix et nos comportements. Ce rangement dans telle ou telle catégorie repose sur les expériences passées et les caractéristiques de l'élément. Plus les expériences seront nombreuses et les caractéristiques détaillées, plus fine et pertinente sera la décision. Il en est de même lorsqu'il nous faut catégoriser un document en fonction de son contenu. Par exemple détecter s'il s'agit d'un conte pour enfants ou d'un traité de philosophie. Ce traitement est bien sûr d'autant plus efficace si nous possédons un grand nombre d'ouvrages de ces deux catégories et que l'ouvrage à classifier possède un nombre important de mots.Dans ce manuscrit nous nous intéressons à la problématique de la prise de décision lorsque justement nous disposons de peu de documents d'apprentissage et que le document possède un nombre de mots limité. Nous proposons pour cela une nouvelle approche qui repose sur de nouvelles pondérations. Elle nous permet de déterminer avec précision l'importance à accorder aux mots composant le document.Afin d'optimiser les traitements, nous proposons une approche paramétrable. Cinq paramètres rendent notre approche adaptable, quel que soit le problème de classification donné. De très nombreuses expérimentations ont été menées sur différents types de documents, dans différentes langues et dans différentes configurations. Selon les corpus, elles mettent en évidence que notre proposition nous permet d'obtenir des résultats supérieurs en comparaison avec les meilleures approches de la littérature pour traiter les problématiques de petits volumes.L'utilisation de paramètres introduit bien sur une complexité supplémentaire puisqu'il faut alors déterminer les valeurs optimales. Détecter les meilleurs paramètres et les meilleurs algorithmes est une tâche compliquée dont la difficulté est théorisée au travers du théorème du No-Free-Lunch. Nous traitons cette seconde problématique en proposant une nouvelle approche de méta-classification reposant sur les notions de distances et de similarités sémantiques. Plus précisément nous proposons de nouveaux méta-descripteurs adaptés dans un contexte de classification de documents. Cette approche originale nous permet d'obtenir des résultats similaires aux meilleures approches de la littérature tout en offrant des qualités supplémentaires.Pour conclure, les travaux présentés dans ce manuscrit ont fait l'objet de diverses implémentations techniques, une dans le logiciel Weka, une dans un prototype industriel et enfin une troisième dans le logiciel de la société ayant financé ces travaux. / Every day, classification is omnipresent and unconscious. For example in the process of decision when faced with something (an object, an event, a person), we will instinctively think of similar elements in order to adapt our choices and behaviors. This storage in a particular category is based on past experiences and characteristics of the element. The largest and the most accurate will be experiments, the most relevant will be the decision. It is the same when we need to categorize a document based on its content. For example detect if there is a children's story or a philosophical treatise. This treatment is of course more effective if we have a large number of works of these two categories and if books had a large number of words. In this thesis we address the problem of decision making precisely when we have few learning documents and when the documents had a limited number of words. For this we propose a new approach based on new weights. It enables us to accurately determine the weight to be given to the words which compose the document.To optimize treatment, we propose a configurable approach. Five parameters make our adaptable approach, regardless of the classification given problem. Numerous experiments have been conducted on various types of documents in different languages and in different configurations. According to the corpus, they highlight that our proposal allows us to achieve superior results in comparison with the best approaches in the literature to address the problems of small dataset. The use of parameters adds complexity since it is then necessary to determine optimitales values. Detect the best settings and best algorithms is a complicated task whose difficulty is theorized through the theorem of No-Free-Lunch. We treat this second problem by proposing a new meta-classification approach based on the concepts of distance and semantic similarities. Specifically we propose new meta-features to deal in the context of classification of documents. This original approach allows us to achieve similar results with the best approaches to literature while providing additional features. In conclusion, the work presented in this manuscript has been integrated into various technical implementations, one in the Weka software, one in a industrial prototype and a third in the product of the company that funded this work.
45

All-dielectric nonlinear nanophotonics / Nanophotonique nonlinéaire tout diélectrique

Gili, Valerio flavio 07 November 2018 (has links)
La méta-optique non linéaire tout diélectrique suscite un vif intérêt, grâce à la faisabilité de nanostructures à contraste élevé et indice de réfraction disponible avec la lithographie à semi-conducteurs. Alors que des effets nonlinéaires au troisième ordre ont été rapportés dans les nanoantennes silicium sur isolant, la plate-forme AlGaAs-sur-isolant a récemment permis la démonstration de la génération de la seconde harmonique, dû à la noncentrosymétrie de ce matériel. Cette thèse illustre notre activité récente sur les nanoantennes non linéaires AlGaAs-sur-AlOx, où AlOx est obtenu par attaque chimique sélective par voie humide d'une couche épitaxiale d'AlGaAs riche en aluminium d'une épaisseur de quelques micromètres. Un tel substrat à faible indice de réfraction permet de découpler efficacement les modes nanoantenna de la tranche de GaAs (100) sous-jacent. La thèse présente d'abord les méthodes numériques, expérimentales et technologiques utilisées. Une analyse des résultats obtenus dans la génération de signaux non linéaires dans des nanoantennes simples et dans des structures complexes est ensuite présentée. Tous nos résultats expérimentaux ouvrent la voie à la génération et à la manipulation de signaux non linéaires à l'échelle nanométrique et pointent vers des applications telles que l'holographie non linéaire, la goniométrie sans fond et la vision nocturne. / All-dielectric nonlinear meta-optics is attracting a great deal of interest thanks to the feasibility of high refractive-index contrast nanostructures available with semiconductor lithography. While third order nonlinear effects have been reported in silicon-on-insulator nanoantennas, the AlGaAs-on-insulator platform has recently enabled the demonstration of second harmonic generation, owing to the non-centrosymmetry of this material. This PhD thesis illustrates our recent activity on AlGaAs-on-AlOx nonlinear nanoantennas, where AlOx is obtained from selective wet etching of micrometer-thick aluminium-rich AlGaAs epitaxial layer. Such a low refractive index substrate allows to effectively decouple the nanoantenna modes from the underlying GaAs (100) wafer. The thesis first introduces the numerical, experimental and technological methods employed. Afterwards, a review of the results obtained in nonlinear signal generation in single nanoantennas and in complex structures is given. All our experimental results pave the way towards nonlinear signal generation and manipulation at the nanoscale, and point towards applications such as nonlinear holography, background-free goniometry and night vision.
46

Apport de la méta-modélisation formelle pour la conception des Systèmes Automatisés de Production

Piétrac, Laurent 12 January 1999 (has links) (PDF)
Les travaux présentés dans ce mémoire portent sur l'étude des langages et méthodes de conception des Systèmes Automatisés de Conception (SAP). Notre objectif est l'amélioration de la rigueur de la définition de ces langages et méthodes. Le moyen retenu est l'utilisation d'un langage formel, le langage Z, pour les méta-modéliser. Dans un premier temps, nous présentons les travaux existants sur l'étude de l'activité de modélisation, afin de montrer l'intérêt de la méta-modélisation vis-à-vis de notre objectif. Dans un deuxième temps, nous caractérisons les différents aspects que doit couvrir un méta-modèle pour représenter avec rigueur un langage ou une méthode. Dans un troisième temps, nous présentons de quelle façon le langage Z permet de couvrir l'ensemble de ces besoins. Nous validons alors notre approche sur deux exemples. Le premier exemple est un langage de conception des systèmes à événements discrets : les réseaux de Petri généralisés. Le deuxième exemple est une méthode de conception de la commande des systèmes hybrides intégrant deux langages : les réseaux de Petri temporels à événements et les équations différentielles.
47

Méthode, modèles et outil pour la méta-modélisation des processus d'ingénierie de systèmes d'information

Hug, Charlotte 20 October 2009 (has links) (PDF)
L'ingénierie des systèmes d'information propose de nombreuses méthodes et modèles produit et processus pour concevoir efficacement des systèmes d'information. Cependant, les modèles de processus définis ne correspondent pas forcément aux contraintes et spécificités des organisations. De plus, différents points de vue (activité, produit, décision, contexte, stratégie) sont pris en compte dans la modélisation et la méta-modélisation des processus d'ingénierie de systèmes d'information, mais ceux-ci sont définis indépendamment les uns des autres. De par leur nombre et leur manque de flexibilité, les modèles de processus existants sont difficilement adaptables par les ingénieurs des méthodes pour prendre en compte les spécificités des organisations. Cette thèse propose une méthode permettant aux ingénieurs des méthodes de définir leurs propres méta-modèles de processus en tenant compte des contraintes et spécificités des organisations. Cette méthode est guidée par un graphe conceptuel comprenant l'ensemble des concepts pour la méta-modélisation des processus. Les méta-modèles créés prennent en compte les différents points de vue. De plus, la construction des méta-modèles de processus est basée sur l'imitation de patrons génériques et de patrons de domaine. La méthode a été outillée et expérimentée auprès d'experts en ingénierie des systèmes d'information.
48

Fiabiliser la réutilisation des patrons par une approche orientée complétude, variabilité et généricité des spécifications

Arnaud, Nicolas 13 October 2008 (has links) (PDF)
Les patrons d'ingénierie ont été introduits afin de capitaliser et de réutiliser des savoirs et savoir-faire. Dans l'ingénierie logicielle, leur usage est aujourd'hui reconnu, à tous les niveaux (analyse, conception, ...), comme un gage de qualité. Outre une solution, un patron comporte également de nombreuses informations, en langage naturel, décrivant des contraintes et/ou variantes. Dans cette thèse, nous nous intéressons à l'activité de réutilisation des patrons (que nous appelons « imitation ») d'analyse ou de conception pour lesquels la solution est donnée sous la forme de spécifications orientées objet. L'imitation consiste en une adaptation et une intégration de cette solution par l'ingénieur d'applications qui tiennent compte des autres informations contenues dans le patron. Ainsi, nous dégageons trois axes que nous considérons comme les piliers d'une bonne imitation : la complétude, la variabilité et la généricité des solutions.<br />Nous proposons une nouvelle forme de définition des solutions qui s'appuie sur l'utilisation de plusieurs vues (fonctionnelle, dynamique et statique) ainsi que sur l'utilisation d'un méta-modèle permettant d'une part d'exprimer à partir de la vue fonctionnelle, la variabilité de la solution (fonctionnalités obligatoires, facultatives, optionnelles ou alternatives) et d'autre part d'exprimer l' « essence » de la solution sous la forme de propriétés génériques définissant les bornes des adaptations permises lors de l'imitation. Un processus d'imitation dédié ainsi qu'un premier outillage basé sur l'approche IDM (Ingénierie Dirigée par les Modèles) sont également proposés aux ingénieurs d'applications.
49

Contribution méthodologique à la maîtrise conjointe de la qualité d'un produit et de ses processus de production par une modélisation des concepts qualité

Deeb, Salah 06 March 2008 (has links) (PDF)
Depuis plusieurs années, le contexte de mondialisation et l'accroissement de la concurrence ont définis un nouvel ordre économique et industriel pour les entreprises de production de biens. En effet, ces entreprises sont quotidiennement confrontées à la maîtrise et à l'amélioration des performances de l'ensemble de leurs processus afin de garantir leur pérennité et leur compétitivité [Meunier 2003]. Dans cet environnement chaque entreprise se doit ainsi d'optimiser la satisfaction de sa clientèle par une amélioration du triptyque Qualité - Coût - Délai des produits. La qualité a été toujours un objectif important depuis que les hommes fabriquent les objets [Pillet 1993]. Elle est matérialisée par des enchaînements logiques d'activités qui concerne le processus, le produit, le client, ... L'organisation de certaines activités permet ainsi de représenter différents points de vue de la qualité : le management de la qualité, l'amélioration de la qualité, la maîtrise de la qualité, ... <br />La norme ISO 9000 :2000 [Afnor 2000] définit la qualité comme une « aptitude d'un ensemble des caractéristiques intrinsèques à satisfaire des exigences ». Cette qualité est considérée par [Dessinoz 2000] comme un processus d'entreprise intégré avec les autres processus tels que la production et la maintenance. Dans l'ingénierie système, la norme ISO/IEC 15288 classifie le processus de management de la qualité comme un des processus d'entreprise cohabitant avec les processus du projet, les processus contractuels et les processus techniques. L'objectif de ce processus dans l'ingénierie est donc d'assurer que les produits, services et processus du cycle de vie d'un système satisfont à la fois les objectifs qualité de l'entreprise et du client [ISO/IEC15288 2002].<br />Ainsi, au sens de l'Ingénierie Système (IS), le processus qualité est en lien avec plusieurs processus de différents types et n'est donc pas limité à une fonction particulière en entreprise [Lopez 2006] ou n'est pas sous la responsabilité d'un seul département [Gogue 2000]. En ce sens, la qualité se décline ainsi sur les niveaux stratégique, tactique et opérationnel de l'entreprise.<br />D'un point de vue stratégique, la qualité est considérée comme une démarche globale dans l'entreprise devant assurer la satisfaction de l'ensemble de ses partenaires. Ce niveau intègre toutes les activités qualité relatives à l'amélioration de la performance globale, à la certification selon la norme ISO 9000 ainsi qu'au management de la qualité en tant que démarche.<br />Du point de vue tactique, le processus qualité opère à ce niveau plus spécifiquement sur les processus de type techniques tels que la production et la maintenance. Il contient des activités relatives à la maîtrise de la qualité des produits et la qualité de processus de production au sens large. Cette activité doit être coordonnée avec les activités du niveau stratégique. <br />Enfin, le point de vue opérationnel a pour objectif de mettre en place les moyens et les actions pour vérifier que les résultats des processus techniques sont conformes aux exigences spécifiées en terme de qualité, réaliser les contrôles et traiter les non-conformités. Cette activité doit être coordonnée avec les activités du niveau tactique. <br />La collaboration versus intégration entre les niveaux soulève encore de nombreuses problématiques à la fois industrielles et scientifiques à ce jour pour faire du processus qualité, un véritable processus au sens système couvrant l'ensemble du cycle de vie du produit/processus. Par exemple des entreprises comme ALSTOM-Moteurs qui est à l'initiative de ces travaux, ont besoin de méthodologie (de guide) qui formalise et intègre la qualité principalement au niveau tactique (i.e. capacité décisionnelle confiée à des équipes autonomes) en relation avec les deux autres niveaux pour améliorer sa performance globale. L'objectif de cette méthodologie est de maîtriser conjointement la qualité du produit et la qualité de leurs processus de production dans une approche cycle de vie du processus de maîtrise de la qualité (de la conception jusqu'à l'exploitation). Relativement à ces besoins de formalisation et d'intégration, des méthodes, des méthodologies et des approches qualité existent à ce jour qui supportent tout ou partie du processus qualité inhérent à un niveau ou à l'interconnexion entre niveaux. Les méthodes, et les approches les plus couramment utilisées sont QFD, Six Sigma, AMDEC, ... <br />Une des approches significatives par rapport à la problématique d'intégration est le TQM (Total Quality Management) qui se positionne dans les différents niveaux structurels en entreprise [Rodney 2006]. Un des objectifs de cette approche qualité est d'améliorer et de maîtriser la qualité du processus de production pour maîtriser la qualité du produit. [Hellsten 2000] a défini le TQM comme un système de management constitué de trois composants qui sont mutuellement dépendants : « core values », méthodologies et outils/méthodes. Cette approche présente un intérêt particulier puisqu'elle permet d'intégrer, au sein des composantes, différentes méthodes et méthodologies qualité telles que QFD, AMDEC, SPC, ... Cependant, ces méthodes et méthodologies sont souvent « informelles » car décrites sous une base textuelle ou graphique [Dale 1990] [Juan 2004]. Elles ne contiennent donc pas une phase de formalisation des concepts qualité dans leur phase de conceptualisation indispensable pour la maîtrise et l'amélioration de la qualité [Marcotte 1995]. Aussi, les méthodologies applicables au niveau tactique permettent difficilement d'améliorer (maîtriser) simultanément la qualité du produit et la qualité de ses processus de production [Ettlie 1994]. De plus, la plupart de ces méthodologies sont applicables dans la phase de d'exploitation mais peu d'entre elles autre que le QFD [Govers 1996], le sont en conception [McClusky, 2000]. <br />Pour répondre simultanément aux besoins industriels genèse de cette thèse et au manque de formalisation préalablement mentionné, notre contribution porte sur la proposition d'une approche qualité générique permettant de formaliser le processus qualité au niveau tactique en intégration avec les autres niveaux opérationnel et stratégique en entreprise. Notre approche se positionne en cohérence avec une approche TQM dans l'objectif de maîtriser et d'améliorer conjointement la qualité du produit et la qualité de ses processus de production. Cette première formalisation (car ne couvrant pas tous les points de vue de la qualité) doit permettre de modéliser de façon générique le processus qualité de niveau tactique et ses interactions nécessaires pour en réaliser l'intégration à la fois avec les autres niveaux stratégiques et opérationnels mais aussi avec les autres processus tel que le processus maintenance pour assurer la performance globale en entreprise. Cette approche de formalisation s'intègre dans le cadre de modélisation Zachman [Zachman 1987] offrant une cohérence relativement aux différents modèles à réaliser. <br />Par rapport à cette formalisation, l'originalité de notre contribution réside dans une première unification, sous la forme de méta-modèles, des concepts qualité sur la base:<br />• de l'approche processus définit dans la norme ISO 9000 :2000 de « niveau tactique ». L'édition de la nouvelle version ISO 9000 :2005 n'impacte pas notre proposition dans le sens où les changements apportés à l'ancienne version ne concernent pas les concepts qualité modélisés dans notre approche qualité.<br />• de la fonction « management de qualité » telle que prôné par la norme IEC/ISO62264 «niveau management », <br />• de méthodes qualité telle que l'AMDEC, la MSP, l'APR, le Poka-yoké,<br />• de la modélisation d'indicateurs qualité.<br />Cette approche se veut donc exploitable de la conception à l'exploitation du processus de maîtrise de la qualité. Dans la phase de conception, notre contribution doit offrir un guide qui aide l'ingénieur qualité, d'abord pour, développer un modèle spécifique par une phase d'instanciation du méta-modèle support de la méthodologie (en cohérence avec le TQM), ensuite d'exécuter la méthode qualité adéquate au moment opportun, et finalement de calculer des indicateurs qualité (phase d'évaluation). Dans la phase d'exploitation, la connaissance formalisée et structurée dans le modèle spécifique (l'ensemble des instances) est directement transposable dans un formalisme compréhensible par l'opérateur sur site (i.e. pages Web) pour mieux suivre et anticiper les dérives qualité du produit/processus principalement sur les axes surveillance, diagnostic et action. Pour faciliter l'utilisation de notre approche qualité, nous avons proposé une automatisation de cette approche à l'aide l'outil MEGA. <br />Notre contribution est ainsi exposée dans ce manuscrit sous la forme de 4 chapitres complémentaires. Le premier chapitre introduit, dans un premier temps, une définition d'un processus qualité au sein de l'entreprise et des points de vue à ce processus. Certains points de vue sont repris pour introduire la problématique industrielle qui est la genèse de ces travaux de thèse. Ceci nous amène à positionner le processus qualité sur les différents niveaux structurels de l'entreprise en mettant en évidence un certain nombre de verrous scientifiques comme la modélisation et l'intégration du processus qualité dans l'entreprise afin de maîtriser et d'améliorer la qualité du produit/processus. Sur la base de ce positionnement, le deuxième chapitre nous permet de présenter un état de l'art recensant les travaux principaux sur les aspects « modèles, méthodes et méthodologies » liés à la formalisation et à l'intégration du processus qualité pour répondre à l'objectif d'une plus grande maîtrise et amélioration de la qualité conjointe produit/processus. Ce recensement met en évidence de réelles problématiques scientifiques non totalement résolues à ce jour pour satisfaire au besoin de formalisation et d'intégration. Ces manques justifient le contenu du chapitre 3 dédié à la définition de la méthodologie proposée (le guide) et qui se base sur un principe de méta-modélisation de concepts qualité garant de la généricité attendue. La méthodologie, construite sur 3 étapes, se positionne en cohérence avec le TQM et permet de formaliser l'interdépendance entre les trois composantes du TQM. Enfin le chapitre 4 décrit, d'une part, l'automatisation de cette méthodologie à l'aide de l'outil MEGA afin de la rendre accessible à tous ingénieurs qualité, et d'autre part, une faisabilité de cette méthodologie sur un cas d'application manufacturier de type tournage couvrant la phase de conception et d'exploitation. Le passage du méta-modèle au modèle spécifique (phase de conception) du processus de tournage est réalisé par une procédure d'instanciation supportée par l'outil.
50

Étude de l'hybridation des méta-heuristiques, application à un problème d'ordonnancement de type jobshop

Duvivier, David 12 December 2000 (has links) (PDF)
Dans ce mémoire, nous étudions les méthodes itératives de recherche dans le cadre de la résolution du problème d'ordonnancement de type jobshop<br /><br />Plus que les performances en elles-mêmes, nous nous intéressons tout particulièrement à la compréhension du fonctionnement des méthodes de résolution ainsi qu'à l'analyse de l'influence de la coopération de plusieurs méthodes de recherche sur la qualité des solutions engendrées.<br /> <br />Dans un premier temps, nous évaluons l'apport de critères secondaires intégrés dans la fonction coût. Nous utilisons des algorithmes itératifs de recherche pour étudier l'impact de l'intégration de ces critères sur le paysage adaptatif ainsi que sur la qualité des ordonnancements engendrés.<br /><br />Nous proposons ensuite quelques améliorations du schéma d'application des opérateurs dans les algorithmes génétiques. <br /><br />Finalement, nous étudions quelques modèles d'hybridation des méta-heuristiques basés sur la recherche tabou et les algorithmes évolutifs.

Page generated in 0.0395 seconds