• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Régression isotonique itérée / Iterative isotonic regression

Jégou, Nicolas 23 November 2012 (has links)
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d’une fonction croissante et d’une fonction décroissante, nous proposons de construire et d’étudier un nouvel estimateur combinant les techniques d’estimation des modèles additifs et celles d’estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l’algorithme backfitting. On dispose ainsià chaque itération d’un estimateur de la fonction de régression résultant de la somme d’une partiecroissante et d’une partie décroissante.Le premier chapitre propose un tour d’horizon des références relatives aux outils cités à l’instant. Le chapitre suivant est dédié à l’étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d’échantillon étant fixée, augmenter le nombre d’itérations conduit à l’interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l’égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l’estimateur.Le troisième chapitre est consacré à l’étude pratique de l’estimateur. Comme augmenter le nombre d’itérations conduit au sur-ajustement, il n’est pas souhaitable d’itérer la méthode jusqu’à la convergence. Nous examinons des règles d’arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l’algorithme à des données réelles de type puces CGH où la détection de ruptures est d’un intérêt crucial. Enfin, une application à l’estimation des fonctions unimodales et à la détection de mode(s) est proposée / This thesis is part of non parametric univariate regression. Assume that the regression function is of bounded variation then the Jordan’s decomposition ensures that it can be written as the sum of an increasing function and a decreasing function. We propose and analyse a novel estimator which combines the isotonic regression related to the estimation of monotonefunctions and the backfitting algorithm devoted to the estimation of additive models. The first chapter provides an overview of the references related to isotonic regression and additive models. The next chapter is devoted to the theoretical study of iterative isotonic regression. As a first step we show that increasing the number of iterations tends to reproduce the data. Moreover, we manage to identify the individual limits by making a connexion with the general property of isotonicity of projection onto convex cones and deriving another equivalent algorithm based on iterative bias reduction. Finally, we establish the consistency of the estimator.The third chapter is devoted to the practical study of the estimator. As increasing the number of iterations leads to overfitting, it is not desirable to iterate the procedure until convergence. We examine stopping criteria based on adaptations of criteria usually used in the context of linear smoothing methods (AIC, BIC, ...) as well as criteria assuming the knowledge of thenumber of modes of the regression function. As it is observed an interesting behavior of the method when the regression function has breakpoints, we apply the algorithm to CGH-array data where breakopoints detections are of crucial interest. Finally, an application to the estimation of unimodal functions is proposed
162

Vers une polyédrisation des objets discrets bruités 3D / Toward a polyhedrization process for 3D noisy digital objects

Provot, Laurent 02 December 2009 (has links)
Les travaux de cette thèse s'inscrivent dans le cadre de la géométrie discrète, une discipline ayant pour objectif de définir un cadre théorique pour transposer dans Z^n les bases de la géométrie euclidienne -- les notions discrètes définies étant le plus proche possible des notions continues que nous connaissons (telles que distance, droite, convexité, ...). De nombreuses études ont déjà été menées au sein de cette discipline, pour en définir l'espace de travail ainsi que les objets fondamentaux manipulés et en saisir leurs propriétés. Des algorithmes de reconnaissance pour ces primitives discrètes ont été développés et utilisés dans des problèmes comme la reconnaissance de formes, l'extraction de caractéristiques géométriques et bien d'autres encore. Néanmoins, la majorité des études ont été effectuées en se reposant sur la régularité des structures fondamentales de l'espace discret, souvent issues de définitions arithmétiques, et ces critères de régularité sont généralement essentiels aux différents algorithmes développés. Or, en pratique, les objets manipulés sont très souvent bruités par les méthodes d'acquisition (scanners, IRM, ...) qui suppriment ce caractère régulier des objets. Dans cette thèse, nous nous intéressons aux objets discrets 3D et proposons une nouvelle primitive discrète, le morceau flou de plan discret, destinée à apporter plus de flexibilité dans les traitements, afin de proposer des algorithmes capables de fournir des résultats satisfaisants aussi bien sur des objets réguliers que non réguliers. Avec l'emploi de cette nouvelle primitive discrète, nous définissons différents estimateurs de caractéristiques géométriques au bord d'objets discrets et montrons comment les utiliser dans des problèmes de segmentation et de polyédrisation d'objets discrets possiblement bruités. / The context of this thesis is the digital geometry. An aim of this field is to develop a theoretical framework to implement in Z^n the basis of the Euclidean geometry. The discrete concepts are thus defined as close as possible to their continuous counterparts (such as distance, straight line, convexity, ...). Many studies have already been led within this research area to define the workspace, the fundamental objects and figure their properties out. Recognition algorithms have been designed for these discrete primitives and used in problems such as pattern recognition, geometric features estimation and many more. However, most of these studies rely on the regularity of fundamental structures of the digital space, that usually comes from their arithmetical definitions. But in practice, objects may be corrupted by the acquisition devices (like scanners or MRI) which eliminate this regularity. This thesis is focused on 3D digital objects. We introduce a new discrete primitive: the blurred piece of a discrete plane. Its aim is to bring some flexibility in treatments in order to design algorithms that yield statisfying results on both noisy and non-noisy digital objects. Relying on this new primtive, we define different geometric feature estimators on the border of such objects and show how to use them to guide the segmentation and polyhedrization processes of this border.
163

Amélioration de l'ordonnancement d'une ligne de production par la méthode Analytic Hierarchy Process / Improvement of production line scheduling by Analytic Hierarchy Process

Ohayon, Karen 19 December 2011 (has links)
Le monde industriel est sans cesse confronté à des problèmes de choix. Une multitude de critères doit être pris en compte dans la résolution de ces derniers. Face à ces situations, les outils d’aide à la décision prennent tout leur sens. Nous utiliserons ici la méthode Analytic Hierarchic Process dans le domaine de la Production et plus particulièrement dans le cadre de l’ordonnancement d’une ligne de production de prothèses cardiovasculaires. Le paramétrage initial de cette méthode fait appel à l’évaluation d’un expert. Bien que ce dernier ait les connaissances nécessaires pour faire un paramétrage convenable, il n’en reste pas moins humain et introduira, même involontairement, une partie subjective dans ses décisions. L’ordonnancement en résultant ne sera donc pas forcément optimal. La réduction de cette subjectivité passe par l’utilisation d’une méta heuristique, de type algorithme génétique, pour améliorer ce paramétrage par l’exploration de solutions voisines à celles proposées par l’expert. / The industrial world is continually faced with problems of choices. Multitude of criterion must be taken into account in resolving them. Faced with these situations, the decision making tools give solutions. We will use the Analytic Hierarchy Process in the production field and especially in the scheduling of a cardio vascular prosthesis production line. The initial parameterization of this method involves the evaluation of an expert. Although he has the required knowledge to make a fitting setup, he is no less human and he will bring even unintentionally a subjective part in his decision. The resulting scheduling will therefore not necessarily be optimal. The reduction of the subjectivity can be done using a metaheuristic method, of genetic algorithm type, to improve this parameterization by exploring neighbouring solutions compared to those proposed by the expert.
164

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents / Development of a microwave ellipsometric bench for the characterization of non-transparent materials

Moungache, Amir 28 October 2011 (has links)
Dans la fabrication d’un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l’ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d’un problème inverse par deux méthodes numériques : une méthode d’optimisation classique utilisant l’algorithme itératif de Levenberg Marquardt et une méthode de régression par l’uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l’indice de réfraction et l’indice d’extinction. Avec la deuxième, on détermine les deux indices ainsi que l’épaisseur de 1’échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d’époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l’indice et de l’épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l’indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique / The control of the physical properties of materials used to manufacture a product is essential. Therefore, it is necessary to determine their behavioral properties. Generally, we get them through intermediate physical properties such as electromagnetic properties. We have developed a technique for contactless characterization of non-transparent materials by applying the basic concepts of optical ellipsometry in the microwave domain. The characterization is done by solving an inverse problem through two different numerical methods: a classical optimization method using the iterative algorithm of Levenberg Marquardt and a regression method by using neural networks particularly the multilayer perceptron. With the first method, we can determine two parameters which are the refractive index and the extinction index of the sample under test. With the second method, we can determine the indices and the thickness of the sample. As a validation, we set up a 30 GHz - experimental free space bench configurated for oblique transmission incidence measurement that we have used to carry out measurements on PTFE and epoxy samples having different thicknesses (1 to 30 mm). We obtained a satisfactory characterization of the index and thickness. Then, we have carried out measurements on three types of paper. The index was satisfactorily characterized but they could not be distinguished. These studies have shown that it is possible to characterize thick and non-transparent materials using ellipsometric technics
165

On combinatorial approximation algorithms in geometry / Sur les algorithmes d'approximation combinatoires en géométrie

Jartoux, Bruno 12 September 2018 (has links)
L'analyse des techniques d'approximation est centrale en géométrie algorithmique, pour des raisons pratiques comme théoriques. Dans cette thèse nous traitons de l'échantillonnage des structures géométriques et des algorithmes d'approximation géométriques en optimisation combinatoire. La première partie est consacrée à la combinatoire des hypergraphes. Nous débutons par les problèmes de packing, dont des extensions d'un lemme de Haussler, particulièrement le lemme dit de Shallow packing, pour lequel nous donnons aussi un minorant optimal, conjecturé mais pas établi dans les travaux antérieurs. Puis nous appliquons ledit lemme, avec la méthode de partition polynomiale récemment introduite, à l'étude d'un analogue combinatoire des régions de Macbeath de la géométrie convexe : les M-réseaux, pour lesquels nous unifions les résultats d'existence et majorations existants, et donnons aussi quelques minorants. Nous illustrons leur relation aux epsilon-réseaux, structures incontournables en géométrie combinatoire et algorithmique, notamment en observant que les majorants de Chan et al. (SODA 2012) ou Varadarajan (STOC 2010) pour les epsilon-réseaux (uniformes) découlent directement de nos résultats sur les M-réseaux. La deuxième partie traite des techniques de recherche locale appliquées aux restrictions géométriques de problèmes classiques d'optimisation combinatoire. En dix ans, ces techniques ont produit les premiers schémas d'approximation en temps polynomial pour divers problèmes tels que celui de calculer un plus petit ensemble intersectant pour un ensemble de disques donnés en entrée parmi un ensemble de points donnés en entrée. En fait, il a été montré que pour de nombreux tels problèmes, la recherche locale de rayon Θ (1/epsilon²) donne une (1 + epsilon)-approximation en temps n^{O(1/epsilon²)}. Savoir si l'exposant de n pouvait être ramené à o (1/epsilon²) demeurait une question ouverte. Nous répondons par la négative : la garantie d'approximation de la recherche locale n'est améliorable pour aucun desdits problèmes / The analysis of approximation techniques is a key topic in computational geometry, both for practical and theoretical reasons. In this thesis we discuss sampling tools for geometric structures and geometric approximation algorithms in combinatorial optimization. Part I focuses on the combinatorics of geometric set systems. We start by discussing packing problems in set systems, including extensions of a lemma of Haussler, mainly the so-called shallow packing lemma. For said lemma we also give an optimal lower bound that had been conjectured but not established in previous work on the topic. Then we use this lemma, together with the recently introduced polynomial partitioning technique, to study a combinatorial analogue of the Macbeath regions from convex geometry: Mnets, for which we unify previous existence results and upper bounds, and also give some lower bounds. We highlight their connection with epsilon-nets, staples of computational and combinatorial geometry, for example by observing that the unweighted epsilon-net bound of Chan et al. (SODA 2012) or Varadarajan (STOC 2010) follows directly from our results on Mnets. Part II deals with local-search techniques applied to geometric restrictions of classical combinatorial optimization problems. Over the last ten years such techniques have produced the first polynomial-time approximation schemes for various problems, such as that of computing a minimum-sized hitting set for a collection of input disks from a set of input points. In fact, it was shown that for many of these problems, local search with radius Θ(1/epsilon²) gives a (1 + epsilon)-approximation with running time n^{O(1/epsilon²)}. However the question of whether the exponent of n could be decreased to o(1/epsilon²) was left open. We answer it in the negative: the approximation guarantee of local search cannot be improved for any of these problems. The key ingredient is a new lower bound on locally expanding planar graphs, which is then used to show the impossibility results
166

Implémentation d'un contrôle en ligne pour système de fabrication additive métallique de structures treillis par soudage à l'arc / Implementation of an on-line control for metalic additive manufacturing system to build lattice structure by arc welding.

Radel, Simon 01 October 2018 (has links)
La technologie de fabrication additive métal fil permet la fabrication de structures filaires complexes en 3 dimensions. Ce système se base sur l'utilisation d'un procédé de soudage qui va permettre le dépôt de la matière. Ce dernier est embarqué sur un bras robotique qui permettra de déplacer la torche de soudage aux positions désirées. Pour fabriquer de grandes structures filaires, le dépôt s'effectue point par point. L'utilisation d'un procédé de soudage induit des fluctuations sur le dépôt. Pour être adaptable facilement, deux aspects doivent être pris en compte. Premièrement, une instrumentation doit être embarquée. Un contrôle local sur la géométrie déposée doit être utilisé pour atteindre les formes finales désirées. Deuxièmement, certaines stratégies de dépôt doivent êtres implémentées pour piloter notre système dans les intersections de branches. Pour atteindre ces deux objectifs, un slicer adaptatif et modulaire, ainsi qu'un système de supervision et de contrôle du système ont été développés pour permettre l'implémentation du contrôle. Cela permet, si une erreur apparait, de changer la position de notre système de dépôt. Pour obtenir la géométrie désirée, notre système de supervision et de contrôle doit pouvoir : (i) effectuer un slicing de la géométrie à la volée lors de la fabrication avec un pas variable pour pouvoir prendre en compte les variations du procédé de dépôt et (ii) gérer les stratégies de dépôt au niveau des intersections pour décider des paramètres procédés et des trajectoires à employer. / Wire Arc Additive Manufacturing (WAAM) has the possibility to build metallic structures in 3D space. WAAM system is based on welding process to deposit metallic material and on a robot that moves the welding torch to add material at a given position. For large skeleton structures, it was chosen to deposit material point by point. Welding process induces fluctuations.To be fully scalable, two main features must be taken into account. First, monitoring of the process is necessary. Local control on the geometry of the deposition must be used to reach the final shape. Secondly, some deposition strategies must be implemented to manage branch intersections. To reach these two objectives, anadaptive and modular slicer and a process manager have been developed in order to implement this control. It allows us, if an error occurs during the deposition, to change the position of the effector or the process parameters. To obtain the desired geometry, the CAM software have to be able to, (i) do a slicing during the additive process of the part with a variable deposit height in order to take into account variation of the deposition process and (ii) manage the deposition strategy at intersection to output the position of the torch.
167

Contributions à l'apprentissage par renforcement inverse / Contributions to inverse reinforcement learning

Klein, Édouard 21 November 2013 (has links)
Cette thèse, intitulée "Contributions à l'apprentissage par renforcement inverse", fournit trois contributions majeures au domaine. La première est une méthode d'estimation de l'attribut moyen, une quantité exploitée par la grande majorité des approches constituant l'état de l'art. Elle a permis d'étendre ces approches au cadre batch et off-policy. La seconde contribution majeure est un algorithme d'apprentissage par renforcement inverse, structured classification for inverse reinforcement learning (SCIRL), qui relâche une contrainte standard du domaine, la résolution répétée d'un processus décisionnel de Markov en introduisant la structure temporelle (par le biais de l'attribut moyen) de ce processus dans un algorithme de classification structurée. Les garanties théoriques qui lui sont attachées et ses bonnes performances en pratique ont permis sa présentation dans une conférence internationale prestigieuse : NIPS. Enfin, la troisième contribution est constituée par la méthode cascaded supervised learning for inverse reinforcement learning (CSI) consistant à apprendre le comportement de l'expert par une méthode supervisée puis à introduire la structure temporelle du MDP par une régression mettant en jeu la fonction de score du classifieur utilisé. Cette méthode offre des garanties théoriques de même nature que celle de SCIRL tout en présentant l'avantage d'utiliser des composants standards pour la classification et la régression, ce qui simplifie la mise en oeuvre. Ce travail sera présenté dans une autre conférence internationale prestigieuse : ECML / This thesis, "Contributions à l'apprentissage par renforcement inverse", brings three major contributions to the community. The first one is a method for estimating the feature expectation, a quantity involved in most of state-of-the-art approaches which were thus extended to a batch off-policy setting. The second major contribution is an Inverse Reinforcement Learning algorithm, structured classification for inverse reinforcement learning (SCIRL), which relaxes a standard constraint in the field, the repeated solving of a Markov Decision Process, by introducing the temporal structure (using the feature expectation) of this process into a structured margin classification algorithm. The afferent theoritical guarantee and the good empirical performance it exhibited allowed it to be presentend in a good international conference: NIPS. Finally, the third contribution is cascaded supervised learning for inverse reinforcement learning (CSI) a method consisting in learning the expert's behavior via a supervised learning approach, and then introducing the temporal structure of the MDP via a regression involving the score function of the classifier. This method presents the same type of theoretical guarantee as SCIRL, but uses standard components for classification and regression, which makes its use simpler. This work will be presented in another good international conference: ECML
168

Ordonnancements coopératifs pour les chaînes logistiques / Cooperative scheduling for supply chains

Mouloua, Zerouk 21 November 2007 (has links)
Nous proposons de développer des outils d’aide à la décision pour l’ordonnancement de chaînes logistiques. Nous privilégions la coopération entre les différents acteurs de la chaîne notamment la négociation avec les fournisseurs sur les dates d’arrivée des composants, et avec les clients sur les dates de livraisons des produits finis. Nous considérons une chaîne logistique qui consiste en un réseau d’entreprises avec des centres de décisions indépendants. Les produits finis ou semi finis des entreprises d’assemblage sont fabriqués en utilisant des composants ou produits semi finis fournis par les autres entreprises du réseau ou par des fournisseurs externes. On est au niveau opérationnel, chaque entreprise construit son ordonnancement par rapport à ses propres centres de production. Comme la production de produits finis dépend des composants, des négociations sont entamées entre les entreprises concernant les dates d’arrivées des composants (les fenêtres de temps). Une solution globale est obtenue par une approche itérative par décomposition incluant des négociations bilatérales entre les centres de production et de décisions pour définir l’ordonnancement juste à temps minimisant la somme des pénalités. Pour résoudre l’ordonnancement juste à temps local de chaque centre de production nous proposons une méthode approchée basée sur les algorithmes génétiques. Chaque solution est évaluée grâce à un algorithme polynomial basé sur le PERT coût. Un contrôle semi décentralisé est envisagé pour assurer la convergence des négociations. Par ailleurs, nous étudions un ensemble de problèmes concernant l’optimisation des transports dans les chaînes logistiques / We propose new decision methods for coordinating supply chain scheduling. We focus on the cooperation between supply chain partners by means of negotiations about suppliers’ raw materials arrival dates, and customers’ delivery dates of finished. We consider a supply chain, which consists in a network of independant enterprises. The finished products (or sub products) of the assembly enterprise are produced using components and/or sub products supplied by other enterprises or by external suppliers. We are at the scheduling level and each enterprise builds its own schedules associated with its production centers. As an operation can be performed only when the production center has received the necessary components, the schedules are dependent. This induces negotiations between decision centers which is expressed by penalty functions associated with soft and hard release dates and due dates. A global solution is searched by an iterative decomposition approach including alternatively bilateral negotiations between the production decision centers and just in time scheduling, minimizing the local total sum of penalties. To solve each local just-in-time scheduling problem, we propose an approximation approach based on meta-heuristics, which explores the set of solutions, in which a solution is described by the job order on each machine and is evaluated using a “pert cost” algorithm.. A semi-decentralized control is suggested to assume the negotiation convergence. Furthermore, we study some transportation optimization problems in supply chains
169

La notion d'invention à l'épreuve de l'autonomisation des branches de la technique / The concept of invention in the context of the empowerment of the branches of technology

Roque, Anne-Céline 11 September 2014 (has links)
Le point de départ de cette thèse tient à une interrogation sur la raison ayant poussé les législateurs américain et français ainsi que les rédacteurs de la Convention de Munich à ne pas définir de manière claire ce qui est le cœur même du droit des brevets : l’invention. Ce manque de précision ne saurait être appréhendé comme une simple lacune, mais comme la marque d’une attitude prudente à l’égard d’une entité qui est intimement liée au développement imprévisible des sciences et techniques. Bien qu’aucune définition n’ait été donnée, des indices graves et concordants laissent entrevoir une certaine idée de ce que pourrait être cette entité : une démonstration concrète d’emprise sur les forces de la nature. Cette ligne directrice imaginée lorsque l’ingénieur pouvait imposer sa volonté à la matière et la façonner à son gré se trouve mise en cause par l’apparition de nouvelles formes de créations. En effet, l’invention peut toujours être vue comme une preuve tangible de puissance technicienne quand il est question d’un appareil ménager ou d’un système de fixation, mais l’ingéniosité humaine est aussi utilisée pour concevoir des programmes informatiques ou des méthodes commerciales qui, à l’instar des machines-outils, simplifient le travail de l’être humain. Dans une telle perspective, il ne paraît plus possible de retenir une seule approche de l’invention et ainsi nier la réalité. Le maintien d’une conception unique de cette dernière entité serait d’autant plus difficile que la maîtrise que l’homme était censé exercer sur la matière s’avère en fait moins assurée. Il suffirait d’examiner les créations faites dans les secteurs de la chimie et des biotechnologies pour s’en convaincre. Là encore, l’idée d’une démonstration concrète d’emprise sur les forces de la nature tend encore à s’imposer puisque les chimistes et les généticiens peuvent provoquer des réactions chimiques et élaborer des molécules, mais les difficultés qu’ils rencontrent pour domestiquer la matière amènent à penser qu’une approche univoque de l’invention ne peut plus être envisagée. Afin de rendre compte des inflexions que la notion d’invention connaît, les travaux ont été structurés autour du concept d’autonomisation qui peut être vu, au regard des travaux de Simondon, comme un affranchissement progressif des créations de la tutelle de leur concepteur. Cette émancipation est rendue possible grâce à une meilleure connaissance des lois qui régissent la matière et permettent à l’ingénieur de mettre au point des créations qui rompent avec l’image « traditionnelle » de l’invention (Partie I). Ce savoir étant néanmoins insuffisant pour domestiquer complètement la nature, il est aussi nécessaire d’étudier le versant le plus dérangeant du phénomène d’autonomisation pour envisager toutes les conceptions possibles de l’invention au XXIe siècle (Partie II). / The starting point of this thesis is the questioning on the reason why the American and French legislators, as well as the draftsmen of the Munich Convention, have not clearly defined the crux of the patent law: the invention. This lack of precision should not be considered as a simple flaw, but as the sign of cautiousness towards a concept that is intrinsically related to the unpredictable development of sciences and technology.Whereas no definition has been given, concordant factors give a sight of what this concept could be: a concrete demonstration of grip on the forces of nature. This guideline which had been designed when the engineer could impose his will on the material and design it at will is questioned by the occurrence of new forms of creation. The invention can always be seen as a tangible proof of technological power when dealing with a household appliance or a joining system; however, human ingenuity has also been used for conceiving software programs or commercial methods which, just like the tool machine, simplify the human work. Hence, it does not seem possible to adopt a single approach of the invention and thus deny reality. Moreover, maintaining a unique conception of the invention would be difficult since the management that human being was supposed to practice on material is, in fact, less ensured, as it is shown for instance by the difficulties that chemists or geneticists face in controlling material. Hence, a one-sided approach of the invention can not be considered. In order to take into account the inflexions of the concept of innovation, scientific works have been based on the idea of empowerment, which can be seen, according to Simondon’s work, as a progressive emancipation of the creations from their creators’ tutorship. This emancipation has been made possible through a better knowledge of the laws which regulate the material and allow the engineer to design creations which break the “traditional” image of the invention (Part I). However, as this knowledge was not sufficient to completely domesticate nature, it also necessary to study the most disturbing aspect of the empowerment phenomenon, in order to foresee all the possible conceptions of invention in the 21st century (Part 2).
170

Krigeage pour la conception de turbomachines : grande dimension et optimisation multi-objectif robuste / Kriging for turbomachineries conception : high dimension and multi-objective robust optimization

Ribaud, Mélina 17 October 2018 (has links)
Dans le secteur de l'automobile, les turbomachines sont des machines tournantes participant au refroidissement des moteurs des voitures. Leur performance dépend de multiples paramètres géométriques qui déterminent leur forme. Cette thèse s'inscrit dans le projet ANR PEPITO réunissant industriels et académiques autour de l'optimisation de ces turbomachines. L'objectif du projet est de trouver la forme du ventilateur maximisant le rendement en certains points de fonctionnement. Dans ce but, les industriels ont développé des codes CFD (computational fluid dynamics) simulant le fonctionnement de la machine. Ces codes sont très coûteux en temps de calcul. Il est donc impossible d'utiliser directement le résultat de ces simulations pour conduire une optimisation.Par ailleurs, lors de la construction des turbomachines, on observe des perturbations sur les paramètres d'entrée. Elles sont le reflet de fluctuations des machines de production. Les écarts observés sur la forme géométrique finale de la turbomachine peuvent provoquer une perte de performance conséquente. Il est donc nécessaire de prendre en compte ces perturbations et de procéder à une optimisation robuste à ces fluctuations. Dans ce travail de thèse, nous proposons des méthodes basées sur du krigeage répondant aux deux principales problématiques liées à ce contexte de simulations coûteuses :• Comment construire une bonne surface de réponse pour le rendement lorsqu'il y a beaucoup de paramètres géométriques ?• Comment procéder à une optimisation du rendement efficace tout en prenant en compte les perturbations des entrées ?Nous répondons à la première problématique en proposant plusieurs algorithmes permettant de construire un noyau de covariance pour le krigeage adapté à la grande dimension. Ce noyau est un produit tensoriel de noyaux isotropes où chacun de ces noyaux est lié à un sous groupe de variables d'entrée. Ces algorithmes sont testés sur des cas simulés et sur une fonction réelle. Les résultats montrent que l'utilisation de ce noyau permet d'améliorer la qualité de prédiction en grande dimension. Concernant la seconde problématique, nous proposons plusieurs stratégies itératives basées sur un co-krigeage avec dérivées pour conduire l'optimisation robuste. A chaque itération, un front de Pareto est obtenu par la minimisation de deux objectifs calculés à partir des prédictions de la fonction coûteuse. Le premier objectif représente la fonction elle-même et le second la robustesse. Cette robustesse est quantifiée par un critère estimant une variance locale et basée sur le développement de Taylor. Ces stratégies sont comparées sur deux cas tests en petite et plus grande dimension. Les résultats montrent que les meilleures stratégies permettent bien de trouver l'ensemble des solutions robustes. Enfin, les méthodes proposées sont appliquées sur les cas industriels propres au projet PEPITO. / The turbomachineries are rotary machines used to cool down the automotive engines. Their efficiency is impacted by a high number of geometric parameters that describe the shape.My thesis is fully funded by the ANR project PEPITO where industrials and academics collaborate. The aim of this project is to found the turbomachineries shape that maximizes the efficiency.That is why, industrials have developed numerical CFD (Computational fluid dynamics) codes that simulate the work of turbomachineries. However, the simulations are time-consuming. We cannot directly use the simulations provided to perform the optimization.In addition, during the production line, the input variables are subjected to perturbations. These perturbations are due to the production machineries fluctuations. The differences observed in the final shape of the turbomachinery can provoke a loss of efficiency. These perturbations have to be taken into account to conduct an optimization robust to the fluctuations. In this thesis, since the context is time consuming simulations we propose kriging based methods that meet the requirements of industrials. The issues are: • How can we construct a good response surface for the efficiency when the number of input variables is high?• How can we lead to an efficient optimization on the efficiency that takes into account the inputs perturbations?Several algorithms are proposed to answer to the first question. They construct a covariance kernel adapted to high dimension. This kernel is a tensor product of isotropic kernels in each subspace of input variables. These algorithms are benchmarked on some simulated case and on a real function. The results show that the use of this kernel improved the prediction quality in high dimension. For the second question, seven iterative strategies based on a co-kriging model are proposed to conduct the robust optimization. In each iteration, a Pareto front is obtained by the minimization of two objective computed from the kriging predictions. The first one represents the function and the second one the robustness. A criterion based on the Taylor theorem is used to estimate the local variance. This criterion quantifies the robustness. These strategies are compared in two test cases in small and higher dimension. The results show that the best strategies have well found the set of robust solutions. Finally, the methods are applied on the industrial cases provided by the PEPITO project.

Page generated in 0.0744 seconds