• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 299
  • 104
  • 46
  • 3
  • Tagged with
  • 442
  • 161
  • 102
  • 95
  • 90
  • 78
  • 77
  • 68
  • 57
  • 57
  • 53
  • 49
  • 43
  • 42
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Contribution à la modélisation et à l'étalonnage élasto-géométriques des manipulateurs à structure parallèle

Deblaise, Dominique 05 December 2006 (has links) (PDF)
Dans le but d'améliorer la précision de positionnement statique des manipulateurs à structure parallèle, nous proposons pour ces structures un modèle qui n'est plus uniquement géométrique, mais élastogéométrique. Les paramètres de ce modèle sont identifiés au cours d'une phase d'étalonnage dédiée. Ces stratégies de modélisation et d'étalonnage sont appliquées à une structure parallèle Delta. La modélisation géométrique faisant intervenir 42 paramètres, intègre de possibles défauts de géométries des parallélogrammes. Le modèle de déformation élastique proposé est fondé sur une analyse de la rigidité des structures parallèles par éléments finis qui, grâce à 6 paramètres préalablement identifiés, prend en compte la raideur des liaisons passives de la structure. Des validations expérimentales montrent que l'identification des paramètres de ce modèle élasto-géométrique permet d'accroître la précision de positionnement statique de la structure, et ce, quel qu'en soit son chargement.
122

Raisonnement géométrique et méthodes de décision en robotique : application à la programmation automatique des robots

Laugier, Christian 14 December 1987 (has links) (PDF)
Présentation des 2 catégories de techniques permettant de faire évoluer un robot. Description de la programmation des robots (grâce à des outils de programmation et simulation graphique) et de la programmation automatique en utilisant la modélisation géométrique
123

Une étude du rapport entre connaissance et preuve : le cas de la notion de symétrie orthogonale

Miyakawa, Takeshi 19 December 2005 (has links) (PDF)
Ce travail présente une analyse des rapports entre connaissance et preuve à travers une notion mathématique : La symétrie orthogonale (abordée dans une situation de construction d'une preuve). Nous nous proposons d'éclairer la distance cognitive qui puisse exister chez les élèves, entre la construction géométrique et la géométrie théorique à partir de la spécification des connaissances.<br /><br />Des outils d'analyse (conception, règle, support, etc.) sont adoptés et développés à partir du modèle de connaissance (modèle cK¢) de Balacheff et d'autres modèles de raisonnement et d'argumentation (modèle de Toulmin, etc.), afin d'établir la relation comparative entre le problème de preuve et les autres problèmes (construction géométrique, reconnaissance de figures) en termes de connaissance engagée.<br /><br />Pour tenter d'identifier les connaissances effectives mobilisées par les élèves dans une situation de construction de preuve, une expérimentation est réalisée au collège en classe de 3e en France. Cette expérimentation vient à la suite d'une analyse théorique de certains types de problèmes permettant de mettre en évidence les différents fonctionnements de composants de conception au sens de Balacheff. Les problèmes de construction et de preuve y sont proposés. L'analyse des données met en évidence un écart sur l'état de connaissance des élèves. En effet, ces derniers réussissent bien le problème de construction des figures symétriques, cependant, ils échouent sur un problème analogue (exigeant la même règle), où la preuve est exigée. L'absence d'un « contrôle » organisé dans la construction qui est exigé dans la preuve est identifié.
124

Amélioration de maillages par des méthodes de sous-gradient

Cua, Charles 23 October 1985 (has links) (PDF)
On étudie un aspect du problème général d'obtention des maillages de type éléments finis. On cherche à améliorer un maillage existant sans changer la topologie actuelle des tétraèdres. On propose des méthodes générales et algorithmiques d'optimisation classique de type méthodes de sous-gradient. On applique ces méthodes à des cas d'école et à des cas réels
125

Eléments méthodologiques pour la réalisation de systèmes de CFAO et leur introduction dans les entreprises

Gardan, Yvon 20 December 1982 (has links) (PDF)
On présente une méthodologie de réalisation de systèmes de CFAO à travers des logiciels mis en œuvre. Cette méthodologie s'appuie à titre d'exemple sur la modélisation bi et tri-dimensionnelle, dont une caractérisation mathématique est présentée. L'intérêt de l'association d'une bonne interactivité et de l'acquisition de connaissances par les systèmes est montrée. Une methode d'introduction de la CFAO dans les entreprises est montrée, methode qui a été effectivement utilisée dans plusieurs dizaines d'entreprises
126

SUR LA REGULARITE DES MINIMISEURS DE MUMFORD-SHAH EN DIMENSION 3 ET SUPERIEURE

Lemenant, Antoine 02 June 2008 (has links) (PDF)
On étudie dans cette thèse certains aspects de la régularité de l'ensemble singulier d'un minimiseur pour la fonctionnelle de Mumford-Shah. On se place principalement en dimension 3 même si certains résultats fonctionnent encore en dimension supérieure. Dans une première partie on étudie les minimiseurs globaux dans R^N et on montre que si (u;K) est un minimiseur global et que si K est un cône assez régulier, alors u (modulo les constantes) est une fonction homogène de degré 1/2 dans R^N\K. Ceci nous permet de lier l'existence d'un minimiseur global et le spectre du laplacien sphérique dans la sphère unité privée de K. Une conséquence est qu'un secteur angulaire stricte ne peut pas être l'ensemble singulier d'un minimiseur global de Mumford-Shah dans R^3. Dans la deuxième partie on montre un théorème de régularité au voisinage des cônes minimaux P, Y et T. On montre que si K est proche (en distance) d'un Y ou d'un T dans une certaine boule, alors K est l'image C^1,alpha d'un P, Y ou d'un T dans une boule légèrement plus petite, ce qui généralise un théorème de L. Ambrosio, N. Fusco et D. Pallara [AFP07]. Les techniques employées ne sont pas exclusives à la dimension 3 et devraient permettre de démontrer des résultats analogues en toute dimension pour un minimiseur de Mumford-Shah, dès lors qu'un résultat de régularité sur les ensembles presque minimaux existerait.
127

Recherche multidisciplinaire pour caractériser deux aquifères fracturés : les eaux minérales de Plancoët en contexte métamorphique, et de Quézac en milieu carbonaté

Durand, Véronique 15 December 2005 (has links) (PDF)
Une méthodologie multidisciplinaire de caractérisation des aquifères fracturés est élaborée en s'appuyant sur deux exemples d'aquifères : un milieu cristallin à Plancoët et un milieu carbonaté à Quézac. Elle consiste d'abord à analyser le contexte géologique et construire un modèle géométrique de l'aquifère à différentes échelles sur la base d'analyses d'images, de cartographie de terrain et de prospections géophysiques. Les modèles géométriques effectués sur les deux sites tiennent compte des particularités de chacun. Une analyse des caractéristiques hydrologiques, hydrogéologiques et géochimiques de l'aquifère est ensuite réalisée à Plancoët, ce qui permet enfin de construire un modèle hydrogéologique qui confirme la structure géologique et conduit à proposer un emplacement de forage. La pluridisciplinarité des méthodes utilisées dans ce travail permet d'avoir une compréhension assez complète des aquifères étudiés.
128

Topics in Convex Optimization: Interior-Point Methods, Conic Duality and Approximations

Glineur, François 26 January 2001 (has links) (PDF)
Optimization is a scientific discipline that lies at the boundary<br />between pure and applied mathematics. Indeed, while on the one hand<br />some of its developments involve rather theoretical concepts, its<br />most successful algorithms are on the other hand heavily used by<br />numerous companies to solve scheduling and design problems on a<br />daily basis.<br /><br />Our research started with the study of the conic formulation for<br />convex optimization problems. This approach was already studied in<br />the seventies but has recently gained a lot of interest due to<br />development of a new class of algorithms called interior-point<br />methods. This setting is able to exploit the two most important<br />characteristics of convexity:<br /><br />- a very rich duality theory (existence of a dual problem that is<br />strongly related to the primal problem, with a very symmetric<br />formulation),<br />- the ability to solve these problems efficiently,<br />both from the theoretical (polynomial algorithmic complexity) and<br />practical (implementations allowing the resolution of large-scale<br />problems) points of view.<br /><br />Most of the research in this area involved so-called self-dual<br />cones, where the dual problem has exactly the same structure as the<br />primal: the most famous classes of convex optimization problems<br />(linear optimization, convex quadratic optimization and semidefinite<br />optimization) belong to this category. We brought some contributions <br />in this field:<br />- a survey of interior-point methods for linear optimization, with <br />an emphasis on the fundamental principles that lie behind the design <br />of these algorithms,<br />- a computational study of a method of linear approximation of convex <br />quadratic optimization (more precisely, the second-order cone that <br />can be used in the formulation of quadratic problems is replaced by a <br />polyhedral approximation whose accuracy can be guaranteed a priori),<br />- an application of semidefinite optimization to classification, <br />whose principle consists in separating different classes of patterns <br />using ellipsoids defined in the feature space (this approach was <br />successfully applied to the prediction of student grades).<br /><br />However, our research focussed on a much less studied category of<br />convex problems which does not rely on self-dual cones, i.e.<br />structured problems whose dual is formulated very differently from<br />the primal. We studied in particular<br />- geometric optimization, developed in the late sixties, which<br />possesses numerous application in the field of engineering<br />(entropy optimization, used in information theory, also belongs to<br />this class of problems)<br />- l_p-norm optimization, a generalization of linear and convex<br />quadratic optimization, which allows the formulation of constraints<br />built around expressions of the form |ax+b|^p (where p is a fixed<br />exponent strictly greater than 1).<br /><br />For each of these classes of problems, we introduced a new type of<br />convex cone that made their formulation as standard conic problems<br />possible. This allowed us to derive very simplified proofs of the<br />classical duality results pertaining to these problems, notably weak<br />duality (a mere consequence of convexity) and the absence of a<br />duality gap (strong duality property without any constraint<br />qualification, which does not hold in the general convex case). We<br />also uncovered a very surprising result that stipulates that<br />geometric optimization can be viewed as a limit case of l_p-norm<br />optimization. Encouraged by the similarities we observed, we<br />developed a general framework that encompasses these two classes of<br />problems and unifies all the previously obtained conic formulations.<br /><br />We also brought our attention to the design of interior-point<br />methods to solve these problems. The theory of polynomial algorithms<br />for convex optimization developed by Nesterov and Nemirovski asserts<br />that the main ingredient for these methods is a computable<br />self-concordant barrier function for the corresponding cones. We<br />were able to define such a barrier function in the case of<br />l_p-norm optimization (whose parameter, which is the main<br />determining factor in the algorithmic complexity of the method, is<br />proportional to the number of variables in the formulation and<br />independent from p) as well as in the case of the general<br />framework mentioned above.<br /><br />Finally, we contributed a survey of the self-concordancy property,<br />improving some useful results about the value of the complexity<br />parameter for certain categories of barrier functions and providing<br />some insight on the reason why the most commonly adopted definition<br />for self-concordant functions is the best possible.
129

Approche déclarative de la modélisation de surfaces

La Greca, Raphaël 31 October 2005 (has links) (PDF)
Nous nous intéressons à la création de surfaces à pôles (NURBS essentiellement), largement utilisées dans les systèmes de modélisation géométrique. Un des avantages de cette modélisation est de permettre d'appréhender la forme des surfaces par la position de points de contrôle. L'approche déclarative de la modélisation de surfaces est destinée à la réalisation rapide et facile d'ébauches de formes et de surfaces. Elle est aussi et surtout destinée à accélérer les processus de conception des spécialistes en leur proposant des solutions adaptées répondant à un ensemble de contraintes et de propriétés.<br /><br />Pour y parvenir, le travail réalisé dans la thèse se divise en quatre étapes :<br /><br />* Etude de faisabilité : réalisée en collaboration avec l'Ecole Nationale Supérieure des Arts et Métiers d'Aix-en-Provence, elle s'est focalisée sur la description et la modélisation d'objets de type pièces mécaniques.<br />* Analyse conceptuelle : Cette étape primordiale dans un projet d'une telle envergure nous a permis de mettre au point l'architecture générale de notre processus déclaratif de surfaces. Dans le cadre de la thèse et en vue d'un premier prototype, nous décidons de focaliser notre étude sur la partie résolution qui se scinde en deux : la détermination des classes de solutions et leur construction sous contraintes.<br />* Etude et développement de la "détermination des classes de solutions" : Notre approche repose sur le comportement d'une surface face aux déformations qui lui sont apportées lors de sa construction : deux surfaces appartiennent à la même classe si elles ont le même comportement face à la même succession de déformations.<br />* Etude et développement de la "construction sous contraintes" : Afin d'obtenir une surface solution particulière (ou instance d'une classe de solutions) nous choisissons une construction par l'application successive de déformations. Ces déformations sont soumises à des contraintes plus ou moins fortes. Nous avons donc élaboré une méthode de déformations de surfaces capable de satisfaire des contraintes de passage tout en gardant un fort contrôle sur la forme de chaque zone d'influence.<br /><br />Deux applications mettant en oeuvre ce travail ont été réalisées en C++ et sont disponibles sous les versions 32-bits de MS Windows(R), Linux et MacOS X.
130

Modélisation et simulation d'éclairage à base topologique : application aux environnements architecturaux complexes

FRADIN, David 17 December 2004 (has links) (PDF)
Modéliser et visualiser des complexes architecturaux reste aujourd'hui un problème difficile, à cause de la grande masse de données qu'un bâtiment meublé peut représenter. L'objectif de cette thèse est la création d'une chaîne complète allant de la modélisation géométrique jusqu'à la simulation d'éclairage. Nous proposons tout d'abord un modèle à base topologique permettant de représenter des grands bâtiments. Cette structure est une hiérarchie de cartes généralisées munies de partitions multiples. Un prototype de modeleur a été développé autour d'une version optimisée de ce modèle et quelques bâtiments ont été modélisés. De nombreuses informations (géométrie, topologie et sémantique) peuvent être extraites de notre modèle pour optimiser les algorithmes de visualisation. Nous montrons comment accélérer un lancer de rayons à l'aide des informations de modélisation et proposons un algorithme rapide d'illumination globale basé sur un lancer de photons.

Page generated in 0.0433 seconds