• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 35
  • 14
  • Tagged with
  • 148
  • 44
  • 25
  • 22
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation, réalisation et commande d'un système de micro-manipulation sans contact par diélectrophorèse

Kharboutly, Mohamed 02 February 2011 (has links) (PDF)
La force de diélectrophorèse (DEP) est utilisée pour manipuler, séparer et positionner différent types des particules (cellules, bactéries, nanotubes de carbone). Dans le but d étudieret de simuler une loi de commande permettant le suivi de la trajectoire d une particule soumise à la force DEP un modèle est nécessaire. Les méthodes utilisées pour simuler la force DEP sont généralement basées soit sur des simulateurs à éléments finis (FEM), soit sur des équations analytiques. Les simulateurs FEM ne permettent pas la variation des paramètres (tensions électriques) lors du calcul de la trajectoire et les équations analytiques sont limitées à des géométries simples des électrodes. Dans ce manuscrit, une méthode hybride basée sur les calculs FEM et analytique est proposée. Cette méthode permet de simuler la trajectoire d une particule en utilisant des géométries complexes et en variant les tensions électriques lors de la simulation. Ce modèle est ensuite validé en le comparant à des relevés expérimentaux. Finalement, une loi de commande, basée sur la commande prédictive généralisée (GPC) est proposée dans le but de contrôler la trajectoire, en profitant de la grande dynamique du déplacement de la particule, et ce malgré les non-linéarités. Cette loi de commande a été validée par des résultats de simulations et une comparaison avec une loi de commande classique.
22

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
23

Commande adaptative d'un positionneur en présence d'un frottement sec

Demange, Jean-Luc 08 January 1991 (has links) (PDF)
La commande en position d'un système mécanique s'effectue toujours en présence d'une force de frottement sec plus ou moins importante. Cette force de frottement introduit un terme non linéaire et non linéarisable dans le système à régler. Elle est de plus dépendante de nombreux paramètres comme la vitesse, la température et les états de surface des pièces mécaniques. De ce fait, elle est souvent considérée comme une perturbation et différentes méthodes de commande linéaire dont les commandes GPS et LQG/LTR sont mises en oeuvre. Pour améliorer les performances de ces commandes, on se propose d'identifier en temps réel la caractéristique du frottement sec et de compenser, avec la commande, cette force perturbatrice. L'identification du frottement permet également de suivre l'usure du système et d'assurer sa maintenance...
24

La diffusion d'information sociétale dans les rapports annuels et les sites internet des entreprises françaises

Oxibar, Bruno 03 December 2003 (has links) (PDF)
Les entreprises françaises diffusent, en plus des informations financières traditionnelles, des informations ayant trait à l'environnement naturel, à leur gestion des ressources humaines, à la qualité et la sécurité des produits, à leur implication dans la Société civile, aux relations d'affaires et à l'éthique, ensemble d'informations que l'on qualifie de sociétales. La question de recherche de cette thèse est la suivante : quelles sont les motivations qui conduisent les dirigeants d'entreprises à diffuser des informations sociétales ?<br />Un chapitre introductif présente l'arsenal réglementaire ainsi que les propositions institutionnelles relatifs à la diffusion d'information sociétale. Il apparaît que la diffusion d'information sociétale résulte d'une démarche volontaire de la part de l'entreprise.<br />La première partie de cette thèse est consacrée à la construction d'un modèle théorique explicatif de la diffusion d'information sociétale. La théorie politico-contractuelle, qui intègre la dimension politique du phénomène et explique le rôle de l'information sociétale dans les relations contractuelles entre parties prenantes de l'entreprise, est sollicitée.<br />La seconde partie rend compte d'une étude empirique visant à valider le cadre d'analyse proposé. Elle porte sur un échantillon d'entreprises françaises dont les diffusions sociétales réalisées au sein des rapports annuels et via les sites internet sont explorées. La méthodologie d'analyse des diffusions d'information sociétale des entreprises fait l'objet d'une présentation détaillée. Une grille commune d'évaluation des diffusions réalisées via les rapports annuels et les sites internet des entreprises est proposée. Cette étude permet de souligner l'importance de la dimension politique dans le processus de diffusion d'information sociétale.
25

" Resolution Search " et problèmes d'optimisation discrète

Posta, Marius 03 February 2012 (has links) (PDF)
Les problèmes d'optimisation discrète sont pour beaucoup difficiles à résoudre, depar leur nature combinatoire. Citons par exemple les problèmes de programmationlinéaire en nombres entiers. Une approche couramment employée pour les résoudreexactement est l'approche de Séparation et Évaluation Progressive. Une approchedifférente appelée " Resolution Search " a été proposée par Chvátal en 1997 pourrésoudre exactement des problèmes d'optimisation à variables 0-1, mais elle restemal connue et n'a été que peu appliquée depuis.Cette thèse tente de remédier à cela, avec un succès partiel. Une première contributionconsiste en la généralisation de Resolution Search à tout problème d'optimisationdiscrète, tout en introduisant de nouveaux concepts et définitions. Ensuite,afin de confirmer l'intérêt de cette approche, nous avons essayé de l'appliquer enpratique pour résoudre efficacement des problèmes bien connus. Bien que notrerecherche n'ait pas abouti sur ce point, elle nous a amené à de nouvelles méthodespour résoudre exactement les problèmes d'affectation généralisée et de localisationsimple. Après avoir présenté ces méthodes, la thèse conclut avec un bilan et desperspectives sur l'application pratique de Resolution Search.
26

Nature-Culture et développement de l'anxiété chez l'enfant

Daneault, Véronique January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
27

Mesures de similarité pour cartes généralisées

Combier, Camille 28 November 2012 (has links) (PDF)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.
28

Transformée de Radon discrète généralisée multidirectionnelle, formalisme théorique et aplications en reconnaissance de formes / Generalized multi directional discrete Radon transform, theoretical formalism and applications on pattern recognition

Elouedi, Inès 09 December 2015 (has links)
La transformée de Radon généralisée est une extension de la transformée de Radon qui généralise ses courbes de projection. Ce mémoire présente de nouveaux formalismes théoriques à la transformée de Radon Généralisée discrète. Les approches proposées dans ce mémoire ont différentes propriétés. Nous citons principalement : l'aspect modèle où chaque point dans l'espace de Radon correspond à un modèle dans l'espace spatial. Il est le résultat de la somme des pixels appartenant au modèle, la projection multidirectionnelle dans le sens que le domaine transformé de Radon se constituera au fur et à mesure que les courbes effectuent une rotation, selon le même principe utilisé dans la transformée de Radon classique et l'inversion exacte qui signifie la reconstruction exacte de l'image initiale à partir de l'espace de Radon de telle sorte que l'image reconstruite à partir de l'espace de Radon est égale en tout point à l'image initiale. La première approche proposée, appelée la transformée de Radon Généralisée Discrète multidirectionnelle est basée sur un formalisme algébrique défini par une multiplication matricielle entre des matrices de projection et l'image. Cette transformée permet une projection multidirectionnelle vu que les matrices de projection sont définies pour sélectionner des courbes épousant différentes directions. Cette transformée a l'avantage de ne poser aucune contrainte sur la nature des courbes projetées tout en permettant une inversion exacte. Nous avons appliqué la nouvelle transformée dans le domaine de la reconnaissance de formes, plus précisément dans la reconnaissance des bâtiments de forme rectangulaire dans des images satellitaire de haute résolution. En partant du principe qu'une courbe est transformée en un point de forte intensité dans l'espace de Radon, notre méthode de reconnaissance adoptée est basée sur l'étude de l'espace de Radon dans le but d'en extraire les pics. Ces derniers portent les informations cherchées sur la forme à identifier, à savoir ses paramètres, sa localisation et son orientation. Une deuxième approche appelée transformée de radon discrète polynomiale a été également proposée. Cette transformée projette une image discrète suivant des courbes polynômiales de différents degrés et orientations. Cette approche, fondée sur des propriétés arithmétiques, est également exactement inversible et multi directionnelle. Nous avons appliqué cette approche dans la reconnaissance des empreintes digitales. Les résultats montrent la précision de la méthode pour la détection de la position et de la direction des courbes polynomiales. Des propriétés intéressantes comme l'invariance aux transformations comme la rotation, la translation et le bruit caractérisent cette approche / The Generalized Radon transform is an extension of the Radon transform which generalizes its projection curves. This paper presents new theoretical formalism to the generalized discrete radon transform. The approaches proposed in this paper have different properties. We mainly cite: the model aspect where each point in Radon space corresponds to a model in spatial space. It is the result of the sum of the pixels belonging to the model, the multi-projection which means that the Radon transform domain will be constructed as the curves are rotated according to the same principle used in the classical Radon transform and exact inversion which means the exact reconstruction of the original image from Radon space so that the reconstructed image is equal in all pixels to the original image. The first proposed approach, called the Generalized Discrete Radon transform is based on an algebraic formalism defined by a matrix multiplication between the projection matrices and the image. This transform allows multidirectional projection since the projection matrices are defined to select curves following different directions. This transform has the advantage of not posing any constraints on the nature of the projected curves while allowing an exact inversion. We applied the new transformed in the field of pattern recognition, specifically in recognition of rectangular buildings in satellite images of high resolution. Assuming that a curve is transformed into an intensive point in the Radon space, our adopted recognition method is based on the study of Radon space in order to extract the peaks. These point out the needed information to identify the pattern, i.e., its parameters, its location and orientation. A second approach called polynomial discrete Radon transform was also proposed. This transform projects a discrete image following polynomial curves of different degrees and directions. This approach, based on arithmetic properties, is exactly reversible and multi-directional. We applied this approach to fingerprint recognition. The results show the precision of the method on detecting the position and direction of polynomial curves but also interesting properties such as invariance transformations such as rotation, translation and noise
29

Flots microscopiques et mécanisme de la diffusion en phase liquide / Microscopic flows and mechanism of diffusion in liquid phase

Lesnicki, Dominika 25 September 2015 (has links)
Le manuscrit de thèse se propose de concilier les points de vue développés par les théories microscopiques et la théorie hydrodynamique sur la diffusion. Nous testons les hypothèses hydrodynamiques et tentons d'obtenir une reformulation de celles-ci à partir d'arguments microscopiques. En particulier, pour un fluide laminaire visqueux, la force exercée sur une particule sphérique ou encore le champ de vitesse autour d'une particule sphérique en mouvement, respectivement décrits par la force de Basset-Boussinesq et la solution de Stokes, seront l'objet de notre investigation. Leurs formes sont-elles pertinentes à l'échelle microscopique ? Si oui, comment peut-on les exprimer à l'échelle moléculaire ? Pour ce faire, nous avons réalisé des simulations moléculaires et basé notre développement à l'aide de la théorie de Mori-Zwanzig. Dans un premier temps, nous étudions l'évolution des fluctuations de la particule afin d'interpréter le comportement aux temps longs et réalisons le lien avec l'inertie, la diffusion et l'hydrodynamique. Puis nous proposons une nouvelle approche pour extraire le flot microscopique de fluides Lennard-Jones ou granulaires afin de le comparer directement aux solutions hydrodynamiques, ce qui nous permet d'étudier les conditions aux bords. Nous avons pu développer une expression analytique pour les conditions aux bords du flot où les fluctuations jouent un rôle clef. A l'aide des outils d'analyse développés, nous pouvons aussi investiguer le couplage entre le mouvement translationnel et rotationnel. Enfin nous étendons notre analyse à des systèmes tels que les ions aqueux et l'eau surfondue. / This work proposes to reconcile the points of view developed by microscopic theories and hydrodynamics on diffusion. We test the hydrodynamics hypothesis and try reformulate them from microscopic arguments. In particular, for a laminar viscous liquid, the exerced force on a spherical particle or the velocity field around the spherical particle with a prescribed velocity, respectively described by the Basset-Boussinesq force and the Stokes flow, will be the object of our investigation. Is their form relevant at microscopic scale ? If so, how can we express them at the molecular scale ? To do so, we realized molecular simulations and based our developement thanks to the Mori-Zwanzig theory which gives us exact microscopic relations. Initally, we study the evolution of fluctuations of the particle in order to interpret the behaviour at long times and link it with inertia, diffusion and hydrodynamics. Then we propose a novel approch to extract the microscopic flow of Lennard-Jones or granular fluids in order to compare it directly with the hydrodynamic solutions, which allows us to study boundary conditions. We were able to develop an analytical expression for boundary conditions of the flow where fluctuations play a key role. Thanks to our developed analysis tools, we also investigate the coupling between the translational and rotational movement. Finally, we extend our investigation to more realistic fluids such as aqueous solutions and water.
30

Finite element modelling and PGD based model reduction for piezoelectric and magnetostrictive materials / Modélisation en éléments finis et réduction de modèle basé sur PGD pour les matériaux piézoélectrique et magnétostrictive

Qin, Zhi 02 December 2016 (has links)
Les techniques sur la récupération d'énergie qui visent à permettre aux réseaux de capteurs sans fil (Wireless Sensor Network, WSN) de devenir autonomes, sont reconnues comme des élément cruciaux pour répondre aux futurs besoins des objets connectés portés par l'internet des objets (Internet of Things, IoT). C’est dans ce contexte que les matériaux fonctionnels piézoélectriques et magnétostrictifs, qui peuvent être utilisés dans une large gamme de systèmes de récupération d'énergie, ont un regain d’intérêt au cours de ces dernières années. Cette thèse porte sur la modélisation multiphysique de ces deux matériaux fonctionnels avec la méthode éléments finis et par la réduction de modèle pour les systèmes qui en résultent, sur la base de la décomposition propre généralisée (Proper Generalized Decomposition, PGD). La modélisation de ces matériaux fonctionnels reste difficile bien que la recherche dans ce domaine a été l'objet de plusieurs études depuis des décennies. Une multitude de difficultés existent, parmi lesquelles les trois suivantes qui sont largement reconnues. La première difficulté résulte de la description mathématique des propriétés de ces matériaux qui est compliquée ; ce qui est particulièrement vrai pour les matériaux magnétostrictifs pour lesquels leurs propriétés dépendent de facteurs environnementaux externes tels que la température, la contrainte et le champ magnétique d’excitation. La deuxième difficulté résulte des effets de couplage entre les champs électromagnétiques, élastiques et thermiques qui doivent être considérés mutuellement, ce qui est au-delà de la capacité de la plupart des outils de simulation existants. La troisième difficulté vient du fait que les systèmes deviennent de plus en plus compacts pour être intégrés et/ou embarqués. Dans ce cas la modélisation multi-échelle est nécessaire, ce qui signifie que des modèles numériques tridimensionnels (3D) doivent être employés. Le travail présenté ici fournit des solutions pour répondre aux difficultés mentionnées. Une modélisation multiphysique sur la base des formes différentielles est d'abord établie. Dans cette modélisation, les quantités sont discrétisés en utilisant les éléments de Whitney appropriés. Après la discrétisation, le système est résolu en un bloc unique, ce qui évite les itérations entre les solutions physiques différentes tout en conduisant à des convergences rapides. La formulation prend en compte, la loi de comportement linéaire des matériaux piézoélectriques, et une loi de comportement non linéaire pour les matériaux magnétostrictifs basée sur le principe de l’énergie libre exprimé par le modèle (Discrete Energy-Averaged Model, DEAM). La mise en œuvre de notre formulation permet de décrire les comportements des matériaux fonctionnels piézoélectriques et magnétostrictifs à des coûts numériques raisonnables. Suite à cela, deux algorithmes basés sur la PGD pour la réduction de modèle sont proposés. Ces deux algorithmes ont permis de réduire considérablement le problème dimensionnel des modèles multiphysiques tout en en conservant de très bonnes précisions. Les algorithmes proposés fournissent également des moyens pour gérer le couplage avec la non-linéarité d’une manière efficiente. L’ensemble de nos modèles sont vérifiés et validés par des exemples représentatifs. / The energy harvesting technology that aims to enable wireless sensor networks (WSN) to be maintenance-free, is recognized as a crucial part for the next generation technology mega- trend: the Internet of Things (IoT). Piezoelectric and magnetostrictive materials, which can be used in a wide range of energy harvesting systems, have attracted more and more interests during the past few years. This thesis focuses on multiphysics finite element (FE) modeling of these two materials and performing model reduction for resultant systems, based on the Prop- er Generalized Decomposition (PGD). Modeling these materials remains challenging although research in this area has been under- going over decades. A multitude of difficulties exist, among which the following three issues are largely recognized. First, mathematically describing properties of these materials is com- plicated, which is particularly true for magnetostrictive materials because their properties depend on factors including temperature, stress and magnetic field. Second, coupling effects between electromagnetic, elastic, and thermal fields need to be considered, which is beyond the capability of most existing simulation tools. Third, as systems becoming highly integrated whole-scale simulations become necessary, which means three dimensional (3D) numerical models should be employed. 3D models, on the other hand, quickly turns intractable if not properly built. The work presented here provides solutions in respond to the above challenges. A differential forms based multiphysics FE framework is first established. Within this frame- work quantities are discreted using appropriate Whitney elements. After discretization, the system is solved as a single block, thus avoiding iterations between different physics solutions and leading to rapid convergences. Next, the linear piezoelectric, and a free energy based nonlinear magnetostrictive constitutive model called Discrete Energy Averaged Model (DE- AM) are incorporated into the framework. Our implementation describes underlying material behaviors at reasonable numerical costs. Eventually, two novel PGD based algorithms for model reduction are proposed. With our algorithms, problem size of multiphysics models can be significantly reduced while final results of very good accuracy are obtained. Our algo- rithms also provide means to handle coupling and nonlinearity conveniently. All our methodologies are demonstrated and verified via representative examples.

Page generated in 0.0538 seconds