• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 61
  • 12
  • 9
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 202
  • 73
  • 60
  • 46
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 26
  • 25
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Cartes incertaines et planification optimale pour la localisation d'un engin autonome

Celeste, Francis 10 February 2010 (has links) (PDF)
Des avancées importantes ont été réalisées dans le domaine de la robotique mobile. L'usage croissant des robots terrestres et des drones de petite taille, n'est possible que par l'apport de capacités d'autonomie de mouvement dans l'environnement d'évolution. La problématique de la localisation du système, par la mise en correspondance de mesures issues des capteurs embarqués avec des primitives contenues dans une carte, est primordiale. Ce processus, qui s'appuie sur la mise en oeuvre de techniques de fusion, a été très étudié. Dans cette thèse, nous proposons de définir des méthodes de planification du mouvement d'un mobile, avec pour objectif de garantir une performance de localisation à partir d'une carte incertaine donnée a priori, et ce lors de l'exécution. Une méthode de génération contrôlée de réalisations de cartes bruitées, exploitant la théorie des processus ponctuels, est d'abord présentée. Cette base de cartes permet de construire des cartes multi-niveaux pour la localisation. Le critère d'optimisation est défini à partir de fonctionnelles de la borne de Cramèr-Rao a posteriori, qui tient compte de l'incertitude sur la dynamique du mobile et de la cartographie incertaine. Nous proposons différentes approches, basées sur la méthode de cross-entropie, pour obtenir des stratégies de déplacement avec des modèles de dynamique discret et continu. La qualité des solutions optimales fournies par ces approches heuristiques est analysée en utilisant des résultats de la théorie des valeurs extrêmes. Enfin, nous esquissons une démarche pour l'amélioration ciblée de cartes sous contrainte de ressources afin d'améliorer la performance de localisation.
142

Matting of Natural Image Sequences using Bayesian Statistics

Karlsson, Fredrik January 2004 (has links)
<p>The problem of separating a non-rectangular foreground image from a background image is a classical problem in image processing and analysis, known as matting or keying. A common example is a film frame where an actor is extracted from the background to later be placed on a different background. Compositing of these objects against a new background is one of the most common operations in the creation of visual effects. When the original background is of non-constant color the matting becomes an under determined problem, for which a unique solution cannot be found. </p><p>This thesis describes a framework for computing mattes from images with backgrounds of non-constant color, using Bayesian statistics. Foreground and background color distributions are modeled as oriented Gaussians and optimal color and opacity values are determined using a maximum a posteriori approach. Together with information from optical flow algorithms, the framework produces mattes for image sequences without needing user input for each frame. </p><p>The approach used in this thesis differs from previous research in a few areas. The optimal order of processing is determined in a different way and sampling of color values is changed to work more efficiently on high-resolution images. Finally a gradient-guided local smoothness constraint can optionally be used to improve results for cases where the normal technique produces poor results.</p>
143

Analyse d'erreur a posteriori pour les couplages Hydro-Mécaniques et mise en œuvre dans Code Aster

Meunier, Sébastien 23 November 2007 (has links) (PDF)
Le résumé contient des caractères spéciaux
144

Méthode des éléments finis mixte duale pour les problèmes de l'élasticité et de l'élastodynamique: analyse d'erreur à priori et à posteriori.

Boulaajine, Lahcen 10 July 2006 (has links) (PDF)
Dans ce travail, nous étudions le raffinement de maillage pour des méthodes d'éléments finis mixtes duales pour deux types de problèmes : le premier concerne le problème de l'élasticité linéaire et le second problème celui de l'élastodynamique.<br /> <br /> Pour ces deux types de problèmes et dans des domaines non réguliers, les méthodes d'éléments finis mixtes analysées jusqu'à présent, sont celles qui concernent des méthodes mixtes "classiques". Ici, nous analysons la formulation mixte duale pour les deux problèmes de l'élasticité linéaire et de l'élastodynamique. <br /> Pour le problème d'élasticité, nous sommes concernés premièrement par une analyse a priori d'erreur en utilisant l'approximation par l'élément fini $BDM_1$ stabilisé. Afin de dériver une estimation a priori optimales d'erreur, nous établissons des règles de raffinement de maillage. <br /> Ensuite, nous faisons une analyse d'erreur à posteriori sur un domaine simplement ou multiplement connexe. En fait nous établissons un estimateur résiduel fiable et efficace. Cet estimateur est alors utilisé dans un algorithme adaptatif pour le raffinement automatique de maillage. Pour le problème de l'élastodynamique, nous faisons une analyse a priori d'erreur en utilisant le même élément fini que pour le problème d'élasticité, en utilisant une formulation mixte duale pour la discrétisation des variables spatiales. <br /> Pour la discrétisation en temps nous étudions les deux schémas de Newmark explicite et implicite. Par des règles de raffinement de maillage appropriées, nous dérivons des estimées d'erreur optimales pour les deux schémas numérique.
145

A posteriori error estimation for anisotropic tetrahedral and triangular finite element meshes

Kunert, Gerd 30 March 1999 (has links) (PDF)
Many physical problems lead to boundary value problems for partial differential equations, which can be solved with the finite element method. In order to construct adaptive solution algorithms or to measure the error one aims at reliable a posteriori error estimators. Many such estimators are known, as well as their theoretical foundation. Some boundary value problems yield so-called anisotropic solutions (e.g. with boundary layers). Then anisotropic finite element meshes can be advantageous. However, the common error estimators for isotropic meshes fail when applied to anisotropic meshes, or they were not investigated yet. For rectangular or cuboidal anisotropic meshes a modified error estimator had already been derived. In this paper error estimators for anisotropic tetrahedral or triangular meshes are considered. Such meshes offer a greater geometrical flexibility. For the Poisson equation we introduce a residual error estimator, an estimator based on a local problem, several Zienkiewicz-Zhu estimators, and an L_2 error estimator, respectively. A corresponding mathematical theory is given.For a singularly perturbed reaction-diffusion equation a residual error estimator is derived as well. The numerical examples demonstrate that reliable and efficient error estimation is possible on anisotropic meshes. The analysis basically relies on two important tools, namely anisotropic interpolation error estimates and the so-called bubble functions. Moreover, the correspondence of an anisotropic mesh with an anisotropic solution plays a vital role. AMS(MOS): 65N30, 65N15, 35B25
146

A posteriori error estimation for non-linear eigenvalue problems for differential operators of second order with focus on 3D vertex singularities

Pester, Cornelia 07 May 2006 (has links) (PDF)
This thesis is concerned with the finite element analysis and the a posteriori error estimation for eigenvalue problems for general operator pencils on two-dimensional manifolds. A specific application of the presented theory is the computation of corner singularities. Engineers use the knowledge of the so-called singularity exponents to predict the onset and the propagation of cracks. All results of this thesis are explained for two model problems, the Laplace and the linear elasticity problem, and verified by numerous numerical results.
147

Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine

Parret-fréaud, Augustin 28 June 2011 (has links) (PDF)
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.
148

Inferring Genetic Regulatory Networks Using Cost-based Abduction and Its Relation to Bayesian Inference

Andrews, Emad Abdel-Thalooth 16 July 2014 (has links)
Inferring Genetic Regulatory Networks (GRN) from multiple data sources is a fundamental problem in computational biology. Computational models for GRN range from simple Boolean networks to stochastic differential equations. To successfully model GRN, a computational method has to be scalable and capable of integrating different biological data sources effectively and homogeneously. In this thesis, we introduce a novel method to model GRN using Cost-Based Abduction (CBA) and study the relation between CBA and Bayesian inference. CBA is an important AI formalism for reasoning under uncertainty that can integrate different biological data sources effectively. We use three different yeast genome data sources—protein-DNA, protein-protein, and knock-out data—to build a skeleton (unannotated) graph which acts as a theory to build a CBA system. The Least Cost Proof (LCP) for the CBA system fully annotates the skeleton graph to represent the learned GRN. Our results show that CBA is a promising tool in computational biology in general and in GRN modeling in particular because CBA knowledge representation can intrinsically implement the AND/OR logic in GRN while enforcing cis-regulatory logic constraints effectively, allowing the method to operate on a genome-wide scale.Besides allowing us to successfully learn yeast pathways such as the pheromone pathway, our method is scalable enough to analyze the full yeast genome in a single CBA instance, without sub-networking. The scalability power of our method comes from the fact that our CBA model size grows in a quadratic, rather than exponential, manner with respect to data size and path length. We also introduce a new algorithm to convert CBA into an equivalent binary linear program that computes the exact LCP for the CBA system, thus reaching the optimal solution. Our work establishes a framework to solve Bayesian networks using integer linear programming and high order recurrent neural networks through CBA as an intermediate representation.
149

Pratiques innovantes d'exploitation des réseaux routiers en lien avec une mobilité durable : une nouvelle approche de l'évaluation

Princeton, Judith, Princeton, Judith 09 November 2011 (has links) (PDF)
La gestion du trafic sur les réseaux routiers se heurte aux nouveaux enjeux du développement durable. L'objectif n'est plus seulement de proposer aux usagers des temps de parcours raisonnables. Il faut aussi limiter la consommation énergétique et les émissions des gaz à effet de serre et des polluants qui y sont associées, afin de garantir une meilleure qualité de vie pour les générations actuelle et futures. Les exigences en matière de sécurité routière sont également renforcées et visent à éliminer le nombre de tués sur les routes. Les exploitants ont donc recours à diverses stratégies, souvent innovantes, pour au moins approcher la situation idéale. Néanmoins, si les décideurs disposent d'une plus grande capacité à mettre en œuvre leurs programmes dans le domaine, ils ont également l'obligation d'en évaluer les performances à divers stades. Cette thèse analyse les nouvelles stratégies de gestion des réseaux autoroutiers en identifiant leurs domaines d'application ainsi que leurs impacts potentiels et réels. Les limites des méthodes existantes d'évaluation a priori et/ou a posteriori sont mises en évidence et une nouvelle approche est proposée. Celle-ci associe les trois principaux critères d'une mobilité durable à un seul concept: le niveau de service, largement employé par les exploitants de réseaux. La méthodologie a fait l'objet d'une validation sur différentes opérations. Par ailleurs, se basant sur les résultats obtenus sur un ensemble d'opérations d'affectation variable des voies au niveau européen, la thèse propose un outil d'aide au choix d'une stratégie d'exploitation d'un réseau en fonction de la configuration de l'infrastructure et du niveau de congestion. Cet outil se présente sous la forme d'un catalogue de cas-types applicable au réseau d'Ile-de-France. La nouvelle approche d'évaluation proposée dans cette thèse présente l'intérêt de pouvoir facilement s'intégrer aux outils de simulation du trafic. Les impacts d'une opération d'exploitation routière sur la congestion, la sécurité et l'environnement peuvent ainsi être fournis par ces simulateurs dans le cadre de l'évaluation a priori. L'intégration est également possible au niveau des systèmes des centres de gestion du trafic, pour l'évaluation a posteriori. Par ailleurs, la thèse identifie des pistes potentielles pour des investigations futures. Tout d'abord, la gravité des accidents pourrait être prise en compte dans l'approche d'évaluation proposée, qui considère pour l'instant tous les accidents corporels confondus en raison du manque de données. De même, seules quatre stratégies d'affectation variable des voies sont proposées dans le catalogue de cas-types. Celui-ci pourrait donc être étendu à l'ensemble des opérations d'exploitation en suivant la même méthodologie décrite dans la thèse
150

Nouvelles approches en filtrage particulaire. Application au recalage de la navigation inertielle

Murangira, A. 25 March 2014 (has links) (PDF)
Les travaux présentés dans ce mémoire de thèse concernent le développement et la mise en œuvre d'un algorithme de filtrage particulaire pour le recalage de la navigation inertielle par mesures altimétriques. Le filtre développé, le MRPF (Mixture Regularized Particle Filter), s'appuie à la fois sur la modélisation de la densité a posteriori sous forme de mélange fini, sur le filtre particulaire régularisé ainsi que sur l'algorithme mean-shiftclustering. Nous proposons également une extension du MRPF au filtre particulaire Rao-Blackwellisé appelée MRBPF (Mixture Rao-Blackwellized ParticleFilter). L'objectif est de proposer un filtre adapté à la gestion des multimodalités dues aux ambiguïtés de terrain. L'utilisation des modèles de mélange fini permet d'introduire un algorithme d'échantillonnage d'importance afin de générer les particules dans les zones d'intérêt. Un second axe de recherche concerne la mise au point d'outils de contrôle d'intégrité de la solution particulaire. En nous appuyant sur la théorie de la détection de changement, nous proposons un algorithme de détection séquentielle de la divergence du filtre. Les performances du MRPF, MRBPF, et du test d'intégrité sont évaluées sur plusieurs scénarios de recalage altimétrique.

Page generated in 0.11 seconds