• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 10
  • 6
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 34
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modelo multiobjetivo de alocação e dimensionamento de geração distribuída para redes de distribuição

Zanin Júnior, Paulo Sérgio 20 April 2018 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-07T12:48:18Z No. of bitstreams: 2 Dissertação - Paulo Sérgio Zanin Júnior - 2018.pdf: 9799514 bytes, checksum: 91a3707c80f8aa8c8ee94301653047f9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-05-07T13:03:18Z (GMT) No. of bitstreams: 2 Dissertação - Paulo Sérgio Zanin Júnior - 2018.pdf: 9799514 bytes, checksum: 91a3707c80f8aa8c8ee94301653047f9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-07T13:03:18Z (GMT). No. of bitstreams: 2 Dissertação - Paulo Sérgio Zanin Júnior - 2018.pdf: 9799514 bytes, checksum: 91a3707c80f8aa8c8ee94301653047f9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-04-20 / Distributed generation represents a new paradigm to the electricity offer expansion in distribution networks, which has been studied in several aspects. This dissertation aims to propose a multi-objective sizing and siting analysis model to assist the distributed generation units planning, based on three perspectives of concern: technical aspect, from the distribution company viewpoint, financial aspect, from the distributed generation owner’s viewpoint, and social-environmental aspect, from the society viewpoint. In this analysis, a genetic algorithm and the Maximin metric are implemented to obtain a Pareto optimal solutions set. As to decision-making analysis, the present value distributed generators net income; minimum losses set; and the Max-Min approximation are used to choose a final solution from the Pareto set. Study cases are accomplished using distribution networks by the proposed model and Pareto-sets are obtained, which allow the view of the best solutions. The mentioned decision-making analysis is applied to capture one of the Pareto-set solutions. Therefore, the results enable the choice of a distributed generation siting and sizing set and also allow complementary analysis referring to generation sources and the model itself. / A geração distribuída representa um novo paradigma para expansão da oferta de eletricidade em redes de distribuição e tem sido estudada em diversos aspectos. Este trabalho propõe um modelo multiobjetivo de alocação e dimensionamento para auxiliar o planejamento de unidades de geração distribuída, baseado em três perspectivas de interesse: aspecto técnico, do ponto de vista da companhia de distribuição; aspecto financeiro, do ponto do empreendedor de geração distribuída; e aspecto socioambiental, do ponto de vista da sociedade como um todo. Nesta análise, um algoritmo genético e a métrica Maximin são implementados para obter um conjunto de soluções ótimas de Pareto. Para a análise de tomada de decisão, de forma a escolher uma solução final do conjunto de Pareto, são utilizados: o valor presente da receita líquida total dos geradores distribuídos; configuração de perdas mínimas; e a aproximação Max-Min. São realizados estudos de caso em redes elétricas de distribuição por meio do modelo proposto e são obtidos conjuntos de Pareto, que permitem visualização das melhores soluções e então a análise de tomada de decisão é aplicada para apreender uma das soluções do conjunto-Pareto. Dessa forma, os resultados permitem a escolha de uma das possíveis configurações de alocação e dimensionamento de geração distribuída e também permitem análises complementares referentes às fontes de geração e ao próprio modelo proposto.
12

Spielräume des Glaubens : Anthropomorphismus in der Architekturtheorie und die Umwandlung von St. Maximin in Trier

Homann, Annette January 2005 (has links)
Zugl.: Berlin, Techn. Univ., Diss., 2005
13

Marie-Madeleine en Occident : les dynamiques de la sainteté dans la Bourgogne des IXème-XVème siècles / Mary Magdalen in the West : dynamics of holiness in the Burgundy of 9th-15th centuries

Taccone, Raphaelle 11 December 2012 (has links)
Le culte de sainte Marie-Madeleine, élaboré dès le second quart du XIème siècle au monastère de Vézelay, sous l’abbatiat de Geoffroi, est unanimement célébré par les foules de fidèles et inspire la sainte plèbe de Dieu sur le chemin du repentir. Particulièrement fécond et consacrant Vézelay, ville gardienne du tombeau de la sainte pénitente des Evangiles comme un haut-lieu de pèlerinage, le culte périclite et plonge dans une situation bipolaire dès le quatrième quart du XIIIème siècle suite à la découverte supposée du véritable corps de la Madeleine à Saint-Maximin en Provence. Beaucoup d’auteurs envisagent le déclin du pèlerinage bourguignon or, il est plus juste d’observer une contraction régionale. En effet, la persistance des témoignages dévotionnels au sein de son berceau primitif et l’implication progressive de la famille ducale de Bourgogne dans la promotion du culte vézelien concourent très largement à une relecture du culte de la sainte.D’une politique monastique, primitivement élaborée par les moines de Vézelay,à une politique princière, s’affirmant pleinement avec l’avènement de la dynastie des Valois, le culte vézelien de la Madeleine est constamment perçu comme une gloire de la Bourgogne. Des sources écrites aux sources liturgiques,à travers le foisonnement des indices dévotionnels en son honneur (reliques,sanctuaires, autels,…) et un corpus iconographique bourguignon la mettant en scène, en regard de l’implication des chanoines de Saint-Maximin et des comtes de Provence - fervent soutien du culte provençal de la Madeleine, les destinées du culte magdalénien, d’une échelle régionale à un ensemble plus grand englobant l’Occident chrétien, méritaient ainsi d’être redéfinies par une approche critique / Appeared from the second quarter of the eleventh century at the monastery ofVezelay, under the abbot Geoffroy, the cult of St. Mary Magdalene is universally celebrated by Christians and inspires pious faithful on the path of repentance.Fruitful, the cult of Magdalene consecrate Vézelay as a place of pilgrimage which conserve Mary Magdalene’s tomb. By the beginning of the fourth quarterof the thirteenth century, the cult declines and become bipolar following the supposed discovery of the Magdalene’s grave in Saint-Maximin (Provence). If historians consider the decline of the Vézelay’s pilgrimage, it should be noted that the cult operate a regional contraction. Indeed, acts of devotion persist in this region and dukes of Burgundy largely support the promotion of the cult –inviting to a new reading of magdalenian cult.The cult is considered as a Burgundy’s glory for the Vézelay’s monks and dukes of this region. Exploring written sources, liturgy and devotional testimonies (relics, sanctuaries, altars,…) also an iconographic corpus, it is necessary to redefine the cult of St. Mary Magdalene in Burgundy and more broadly in the Christian West by a critical approach
14

Plans prédictifs à taille fixe et séquentiels pour le krigeage / Fixed-size and sequential designs for kriging

Abtini, Mona 30 August 2018 (has links)
La simulation numérique est devenue une alternative à l’expérimentation réelle pour étudier des phénomènes physiques. Cependant, les phénomènes complexes requièrent en général un nombre important de simulations, chaque simulation étant très coûteuse en temps de calcul. Une approche basée sur la théorie des plans d’expériences est souvent utilisée en vue de réduire ce coût de calcul. Elle consiste à partir d’un nombre réduit de simulations, organisées selon un plan d’expériences numériques, à construire un modèle d’approximation souvent appelé métamodèle, alors beaucoup plus rapide à évaluer que le code lui-même. Traditionnellement, les plans utilisés sont des plans de type Space-Filling Design (SFD). La première partie de la thèse concerne la construction de plans d’expériences SFD à taille fixe adaptés à l’identification d’un modèle de krigeage car le krigeage est un des métamodèles les plus populaires. Nous étudions l’impact de la contrainte Hypercube Latin (qui est le type de plans les plus utilisés en pratique avec le modèle de krigeage) sur des plans maximin-optimaux. Nous montrons que cette contrainte largement utilisée en pratique est bénéfique quand le nombre de points est peu élevé car elle atténue les défauts de la configuration maximin-optimal (majorité des points du plan aux bords du domaine). Un critère d’uniformité appelé discrépance radiale est proposé dans le but d’étudier l’uniformité des points selon leur position par rapport aux bords du domaine. Ensuite, nous introduisons un proxy pour le plan minimax-optimal qui est le plan le plus proche du plan IMSE (plan adapté à la prédiction par krigeage) et qui est coûteux en temps de calcul, ce proxy est basé sur les plans maximin-optimaux. Enfin, nous présentons une procédure bien réglée de l’optimisation par recuit simulé pour trouver les plans maximin-optimaux. Il s’agit ici de réduire au plus la probabilité de tomber dans un optimum local. La deuxième partie de la thèse porte sur un problème légèrement différent. Si un plan est construit de sorte à être SFD pour N points, il n’y a aucune garantie qu’un sous-plan à n points (n 6 N) soit SFD. Or en pratique le plan peut être arrêté avant sa réalisation complète. La deuxième partie est donc dédiée au développement de méthodes de planification séquentielle pour bâtir un ensemble d’expériences de type SFD pour tout n compris entre 1 et N qui soient toutes adaptées à la prédiction par krigeage. Nous proposons une méthode pour générer des plans séquentiellement ou encore emboités (l’un est inclus dans l’autre) basée sur des critères d’information, notamment le critère d’Information Mutuelle qui mesure la réduction de l’incertitude de la prédiction en tout point du domaine entre avant et après l’observation de la réponse aux points du plan. Cette approche assure la qualité des plans obtenus pour toutes les valeurs de n, 1 6 n 6 N. La difficulté est le calcul du critère et notamment la génération de plans en grande dimension. Pour pallier ce problème une solution a été présentée. Cette solution propose une implémentation astucieuse de la méthode basée sur le découpage par blocs des matrices de covariances ce qui la rend numériquement efficace. / In recent years, computer simulation models are increasingly used to study complex phenomena. Such problems usually rely on very large sophisticated simulation codes that are very expensive in computing time. The exploitation of these codes becomes a problem, especially when the objective requires a significant number of evaluations of the code. In practice, the code is replaced by global approximation models, often called metamodels, most commonly a Gaussian Process (kriging) adjusted to a design of experiments, i.e. on observations of the model output obtained on a small number of simulations. Space-Filling-Designs which have the design points evenly spread over the entire feasible input region, are the most used designs. This thesis consists of two parts. The main focus of both parts is on construction of designs of experiments that are adapted to kriging, which is one of the most popular metamodels. Part I considers the construction of space-fillingdesigns of fixed size which are adapted to kriging prediction. This part was started by studying the effect of Latin Hypercube constraint (the most used design in practice with the kriging) on maximin-optimal designs. This study shows that when the design has a small number of points, the addition of the Latin Hypercube constraint will be useful because it mitigates the drawbacks of maximin-optimal configurations (the position of the majority of points at the boundary of the input space). Following this study, an uniformity criterion called Radial discrepancy has been proposed in order to measure the uniformity of the points of the design according to their distance to the boundary of the input space. Then we show that the minimax-optimal design is the closest design to IMSE design (design which is adapted to prediction by kriging) but is also very difficult to evaluate. We then introduce a proxy for the minimax-optimal design based on the maximin-optimal design. Finally, we present an optimised implementation of the simulated annealing algorithm in order to find maximin-optimal designs. Our aim here is to minimize the probability of falling in a local minimum configuration of the simulated annealing. The second part of the thesis concerns a slightly different problem. If XN is space-filling-design of N points, there is no guarantee that any n points of XN (1 6 n 6 N) constitute a space-filling-design. In practice, however, we may have to stop the simulations before the full realization of design. The aim of this part is therefore to propose a new methodology to construct sequential of space-filling-designs (nested designs) of experiments Xn for any n between 1 and N that are all adapted to kriging prediction. We introduce a method to generate nested designs based on information criteria, particularly the Mutual Information criterion. This method ensures a good quality forall the designs generated, 1 6 n 6 N. A key difficulty of this method is that the time needed to generate a MI-sequential design in the highdimension case is very larg. To address this issue a particular implementation, which calculates the determinant of a given matrix by partitioning it into blocks. This implementation allows a significant reduction of the computational cost of MI-sequential designs, has been proposed.
15

Planification et Suivi de Mouvement d’un Système de Manipulateur Mobile non-holonome à deux bras / Motion Planning and Tracking of a Hyper Redundant Non-holonomic Mobile Dual-arm Manipulator

Wei, Yan 18 June 2018 (has links)
Cette thèse se situe dans la planification et le suivi de mouvement d’un humanoïde mobile à deux bras. Premièrement, MDH est utilisé pour la modélisation cinématique. Afin de surmonter les insuffisances de la méthode d’Euler-Lagrange qui nécessitent des calculs d’énergie et ses dérivées partielles, la méthode de Kane est utilisée. En plus, la stabilité physique est analysée et un contrôleur est conçu. Deuxièmement, un algorithme avancée MaxiMin NSGA-II est proposée pour concevoir l’orientation et la position optimales de la plate-forme mobile (PB) et la configuration optimale du manipulateur supérieur (MS) étant donnée uniquement la pose initiale et les positions et orientations souhaitées des EEs. Un algorithme à connexion directe combinant BiRRT et la gradient-descente est conçu pour réaliser la transition de la pose initiale à la pose optimale, et une méthode d'optimisation géométrique est conçue pour optimiser et cohérer le chemin. En outre, les motions en avant sont obtenues en attribuant des orientations pour MB indiquant ainsi l'intention du robot. Afin de résoudre le problème d'échec de l’algorithme hors ligne, un algorithme en ligne est proposé en estimant les motions des obstacles dynamiques. De plus, afin d'optimiser les via-poses, un algorithme basé sur les via-points des EEs et MOGA est proposé en optimisant quatre fonctions objectives. Enfin, le problème de suivi de motion est étudié étant donné les motions des EEs dans l'espace de tâche. Au lieu de contrôler la motion absolue, deux motions relatives sont introduites pour réaliser la coordination et la coopération entre MB et MS. De plus, une technique mWLN est proposée pour éviter les limites des joints. / This thesis focuses on the motion planning and tracking of a dual-arm mobile humanoid. First, MDH is used for kinematic modeling. The co-simulation via Simulink-Adams on prototype is realized to validate the effectiveness of RBFNN controller. In order to overcome the shortcomings of Euler-Lagrange’s formulations that require calculating energy and energy derivatives, Kane’s method is used. In addition, physical stability is analyzed based on Kane’s method and a controller is designed using back-stepping technique. Secondly, an improved MaxiMin NSGA-II is proposed to design the mobile base’s (MB) optimal position-orientation and the upper manipulator’s (UM) optimal configuration given only the initial pose and end-effectors’ (EEs) desired positions-orientations. A direct connect algorithm combining BiRRT and gradient-descent is designed to plan the transition from initial pose to optimal pose, and a geometric optimization method is designed to optimize and cohere the path. In addition, forward motions are obtained by assigning orientations for MB thus indicating robot’s intention. In order to solve the failure problem of offline algorithm, an online algorithm is proposed while estimating dynamic obstacles’ motions. In addition, in order to optimize via-poses, an algorithm based on EEs’ via-points and MOGA is proposed by optimizing four via-pose-based objective functions. Finally, the motion tracking problem is studied given EEs’ motions in the task space. Instead of controlling the absolute motion, two relative motions are introduced to realize the coordination and cooperation between MB and UM. In addition, an modulated WLN technique is proposed to avoid joints’ limits.
16

Apprentissage actif pour l'approximation de variétés / Active learning for variety approximation

Gandar, Benoît 27 November 2012 (has links)
L’apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d’un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l’apprentissage s’appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s’apparente à apprendre la frontière d’une variété dans l’espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l’apprentissage actif, i.e. nous supposons que l’échantillon d’apprentissage n’est plus aléatoire et que nous pouvons, par l’intermédiaire d’un oracle, générer les points sur lesquels l’apprentissage de la variété va s’effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d’apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d’expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d’affiner la connaissance de celle-ci. Deux méthodes d’échantillonnage sont alors envisageables : le « selective sampling » qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l’« adaptative sampling » qui permet de choisir n’importe quels points de l’espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n’est pas raisonnable d’utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété. / Statistical learning aims to modelize a functional link between two variables X and Y thanks to a random sample of realizations of the couple (X,Y ). When the variable Y takes a binary number of values, learning is named classification and learn the functional link is equivalent to learn the boundary of a manifold in the feature space of the variable X. In this PhD thesis, we are placed in the context of active learning, i.e. we suppose that learning sample is not random and that we can, thanks to an oracle, generate points for learning the manifold. In the case where the variable Y is continue (regression), previous works show that criterion of low discrepacy to generate learning points is adequat. We show that, surprisingly, this result cannot be transfered to classification talks. In this PhD thesis, we propose the criterion of dispersion for classification problems. This criterion being difficult to realize, we propose a new algorithm to generate low dispersion samples in the unit cube. After a first approximation of the manifold, successive approximations can be realized in order to refine its knowledge. Two methods of sampling are possible : the « selective sampling » which selects points to present to the oracle in a finite set of candidate points, and the « adaptative sampling » which allows to select any point in the feature space of the variable X. The second sampling can be viewed as the infinite limit of the first. Nevertheless, in practice, it is not reasonable to use this method. Then, we propose a new algorithm, based on dispersion criterion, leading both exploration and exploitation to approximate a manifold.
17

The Secret Ingredients to Moral Philosophy: Blood, Sweat, and Tears : On bad enough worst-case scenarios in experimental approximations of John Rawls' Original Position

Lappalainen, Isa January 2019 (has links)
No description available.
18

Hypercubes Latins maximin pour l’echantillonage de systèmes complexes / Maximin Latin hypercubes for experimental design

Le guiban, Kaourintin 24 January 2018 (has links)
Un hypercube latin (LHD) maximin est un ensemble de points contenus dans un hypercube tel que les points ne partagent de coordonnées sur aucune dimension et tel que la distance minimale entre deux points est maximale. Les LHDs maximin sont particulièrement utilisés pour la construction de métamodèles en raison de leurs bonnes propriétés pour l’échantillonnage. Comme la plus grande partie des travaux concernant les LHD se sont concentrés sur leur construction par des algorithmes heuristiques, nous avons décidé de produire une étude détaillée du problème, et en particulier de sa complexité et de son approximabilité en plus des algorithmes heuristiques permettant de le résoudre en pratique.Nous avons généralisé le problème de construction d’un LHD maximin en définissant le problème de compléter un LHD entamé en respectant la contrainte maximin. Le sous-problème dans lequel le LHD partiel est vide correspond au problème de construction de LHD classique. Nous avons étudié la complexité du problème de complétion et avons prouvé qu’il est NP-complet dans de nombreux cas. N’ayant pas déterminé la complexité du sous-problème, nous avons cherché des garanties de performances pour les algorithmes résolvant les deux problèmes.D’un côté, nous avons prouvé que le problème de complétion n’est approximable pour aucune norme en dimensions k ≥ 3. Nous avons également prouvé un résultat d’inapproximabilité plus faible pour la norme L1 en dimension k = 2. D’un autre côté, nous avons proposé un algorithme d’approximation pour le problème de construction, et avons calculé le rapport d’approximation grâce à deux bornes supérieures que nous avons établies. En plus de l’aspect théorique de cette étude, nous avons travaillé sur les algorithmes heuristiques, et en particulier sur la méta-heuristique du recuit simulé. Nous avons proposé une nouvelle fonction d’évaluation pour le problème de construction et de nouvelles mutations pour les deux problèmes, permettant d’améliorer les résultats rapportés dans la littérature. / A maximin Latin Hypercube Design (LHD) is a set of point in a hypercube which do not share a coordinate on any dimension and such that the minimal distance between two points, is maximal. Maximin LHDs are widely used in metamodeling thanks to their good properties for sampling. As most work concerning LHDs focused on heuristic algorithms to produce them, we decided to make a detailed study of this problem, including its complexity, approximability, and the design of practical heuristic algorithms.We generalized the maximin LHD construction problem by defining the problem of completing a partial LHD while respecting the maximin constraint. The subproblem where the partial LHD is initially empty corresponds to the classical LHD construction problem. We studied the complexity of the completion problem and proved its NP-completeness for many cases. As we did not determine the complexity of the subproblem, we searched for performance guarantees of algorithms which may be designed for both problems. On the one hand, we found that the completion problem is inapproximable for all norms in dimensions k ≥ 3. We also gave a weaker inapproximation result for norm L1 in dimension k = 2. On the other hand, we designed an approximation algorithm for the construction problem which we proved using two new upper bounds we introduced.Besides the theoretical aspect of this study, we worked on heuristic algorithms adapted for these problems, focusing on the Simulated Annealing metaheuristic. We proposed a new evaluation function for the construction problem and new mutations for both the construction and completion problems, improving the results found in the literature.
19

Cluster-based lack of fit tests for nonlinear regression models

Munasinghe, Wijith Prasantha January 1900 (has links)
Doctor of Philosophy / Department of Statistics / James W. Neill / Checking the adequacy of a proposed parametric nonlinear regression model is important in order to obtain useful predictions and reliable parameter inferences. Lack of fit is said to exist when the regression function does not adequately describe the mean of the response vector. This dissertation considers asymptotics, implementation and a comparative performance for the likelihood ratio tests suggested by Neill and Miller (2003). These tests use constructed alternative models determined by decomposing the lack of fit space according to clusterings of the observations. Clusterings are selected by a maximum power strategy and a sequence of statistical experiments is developed in the sense of Le Cam. L2 differentiability of the parametric array of probability measures associated with the sequence of experiments is established in this dissertation, leading to local asymptotic normality. Utilizing contiguity, the limit noncentral chi-square distribution under local parameter alternatives is then derived. For implementation purposes, standard linear model projection algorithms are used to approximate the likelihood ratio tests, after using the convexity of a class of fuzzy clusterings to form a smooth alternative model which is necessarily used to approximate the corresponding maximum optimal statistical experiment. It is demonstrated empirically that good power can result by allowing cluster selection to vary according to different points along the expectation surface of the proposed nonlinear regression model. However, in some cases, a single maximum clustering suffices, leading to the development of a Bonferroni adjusted multiple testing procedure. In addition, the maximin clustering based likelihood ratio tests were observed to possess markedly better simulated power than the generalized likelihood ratio test with semiparametric alternative model presented by Ciprian and Ruppert (2004).
20

Etude géologique et géotechnique des aménagements du canal de Provence entre Rians et Saint Maximin (Var)

Guillen, Jacques 08 March 1969 (has links) (PDF)
Cette étude aborde les investigations géologiques et géotechniques liées aux aménagements hydrauliques de la Société du Canal de provence entre Rians et Saint Maximin.

Page generated in 0.0412 seconds