• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
811

Mise en oeuvre d'un système de reconstruction adaptif pour l'IRM 3D des organes en mouvement / Implementation of an adaptive reconstruction system for 3D MRI of moving organs

Menini, Anne 09 December 2013 (has links)
L'Imagerie par Résonance Magnétique (IRM) présente deux caractéristiques principales. La première, sa capacité à manipuler le contraste, constitue son principal avantage par rapport aux autres modalités d'imagerie. Cela permet d'obtenir des informations complémentaires pour une meilleure détectabilité et une meilleure précision dans le diagnostic. Cela est particulièrement appréciable pour les pathologies du myocarde. La seconde caractéristique de l'IRM est également l'un de ces principaux inconvénients : le processus d'acquisition est relativement lent. De ce fait, les mouvements du patient constituent un obstacle important puisqu'ils perturbent ce processus d'acquisition, ce qui se traduit par des artéfacts dans l'image reconstruite. L'imagerie cardiaque et abdominale sont donc particulièrement sensibles à cette problématique du mouvement. L'objectif de cette thèse est donc de proposer une méthode de correction de mouvement intégrable dans un contexte multi-contraste. Nous avons étudié dans un premier temps la question de la correction de mouvement seule. Pour cela, nous nous sommes plus particulièrement intéressés à la méthode GRICS déjà développée au laboratoire IADI. Cette méthode permet la reconstruction conjointe d'une image sans artéfact et d'un modèle de mouvement non rigide permettant de corriger les déplacements qui surviennent pendant l'acquisition. Le premier apport majeur de cette thèse a consisté à améliorer la méthode GRICS, notamment pour l'adapter à l'imagerie volumique 3D. Il s'agit d'une nouvelle méthode de régularisation adaptative particulièrement adaptée au problème inverse posé dans GRICS. Le second apport majeur de cette thèse a consisté à gérer la correction de mouvement GRICS de manière conjointe sur des acquisitions présentant des contrastes différents. Il s'agit de concevoir l'examen IRM comme un tout et d'exploiter au mieux les informations partagées entre les différents contrastes. Toutes ces méthodes ont été appliquées et validées par des simulations, des tests sur fantôme, sur volontaires sains et sur des patients dans la cadre d'études cliniques. L'application cardiaque a été particulièrement visée. Les méthodes développées ont permis d'améliorer le processus d'acquisition et de reconstruction dans le contexte clinique réel / Magnetic Resonance Imaging (MRI) has two main features. The first one, its ability to manipulate contrast, is a major advantage compared to the other imaging modalities. It allows to access complementary information for a better detectability and a diagnostic more accurate. This is especially useful for myocardium pathologies. The second feature of MRI is also one of its main drawbacks: the acquisition process is slow. Therefore, patient motion is a significant obstacle because it disturbs the acquisition process, which leads to artifacts in the reconstructed image. Cardiac and thoracic imaging are particularly sensitive to this motion issue. The aim of this thesis is to develop a new motion correction method that can be integrated in a multi-contrast workflow. In a first phase, we studied apart the motion correction problem. To do so, we focused more particularly on the GRICS method which was already developed in the IADI laboratory. This method allows the joint reconstruction of an image free from artifact and a non-rigid motion model that describes the displacements occurring during the acquisition. The first major contribution of this thesis is an improvement of the GRICS method consisting mainly in adapting it to the 3D imaging. This was achieved with a new adaptive regularization method that perfectly suits the inverse problem posed in GRICS. The second major contribution of this thesis consists in the simultaneous management of the motion correction on multiple acquisitions with different contrasts. To do so, the MRI examination is considered as a whole. Thus we make the most of information shared between the different contrasts. All these methods have been applied and validated by simulations, tests on phantom, on healthy volunteers and on patients as part of clinical studies. We aimed more particularly at cardiac MR. Finally the developed methods improve the acquisition and reconstruction workflow in the framework of a real clinical routine
812

Problème de sondage dans les réseaux sociaux décentralisés / On the polling problem for decentralized social networks

Hoang, Bao Thien 03 February 2015 (has links)
Un des thèmes pratiques, mais hautement sensibles, est le problème de sondage dans les réseaux sociaux où le caractère secret des informations sélectionnées et la réputation de l’utilisateur sont très critiques. En effet, les utilisateurs désirent préserver la confidentialité de leurs votes et dissimuler, le cas échéant, leurs mauvais comportements. Récemment, Guerraoui et al. ont propose des protocoles de sondage basés sur la partage de secret et ne nécessitant aucune infrastructure cryptographique. Néanmoins, ces protocoles ne sont applicables que si le graphe social a une structure d’anneau et le nombre d’utilisateurs est un carré parfait. Dans cette thèse, nous traitons, d’une part, du problème du déploiement décentralisé des protocoles de sondage qui sont basés sur des graphes sociaux ayant des structures générales, et d’autre part, du problème de transformation des graphes sociaux pour augmenter les propriétés de vie privée et de précision, nécessaires au déroulement sûr et rentable du sondage décentralisé. Premièrement, nous proposons trois protocoles décentralisés qui s’appuient sur l’état originel (sans transformation) des graphes sociaux. Les deux premiers protocoles utilisent respectivement des modèles de communication synchrone et asynchrone, et manipulent des procédures de vérification pour détecter les utilisateurs malhonnêtes. Quant au troisième protocole, il est asynchrone et ne nécessite pas de procédures de vérification. Pour que ce protocole permette une diffusion efficace de messages, nous avons défini une propriété sur les graphes sociaux, appelée “m-broadcasting”. Dans la deuxième partie de la thèse, nous formalisons le problème de “l’ajout des amis” qui consiste à trouver une transformation optimale des graphes sociaux pour les adapter au partage de secret. Pour résoudre ce problème, nous présentons deux algorithmes selon deux approches différentes: centralisée et décentralisée. Une évaluation expérimentale montre que nos protocoles sont précis et restreints aux bornes théoriques / One of the current practical, useful but sensitive topic in social networks is polling problem where the privacy of exchanged information and user reputation are very critical. Indeed, users want to preserve the confidentiality of their votes and to hide, if any, their misbehaviors. Recently, Guerraoui et al. proposed polling protocols based on simple secret sharing scheme and without requiring any central authority or cryptography system. However these protocols can be deployed safely and efficiently provided that the social graph structure should be transformed into a ring structure-based overlay and the number of participating users is perfect square. In this thesis, we address the problem of deploying decentralized polling protocols for general social graphs and how to transform these graphs in order to increase the privacy and/or accuracy properties. First, we propose three simple decentralized polling protocols that rely on the current state of social graphs. The two first protocols use synchronous and asynchronous models and verification procedures to detect the misbehaving users. The third protocol is an asynchronous one that does not require any verification procedures and contains a method for efficiently broadcasting message under a family of social graphs satisfying what we call the “m-broadcasting” property. Second, we formalize the “adding friends” problem such that we can reuse the social graphs after some minimum structural modifications consisting in adding new friendship relations. We also devise algorithms for solving this problem in centralized and decentralized networks. We validate our solutions with some performance evaluations which show that our protocols are accurate, and inside the theoretical bounds
813

3D Spatial Modeling of Stacked Containers based on Wireless Sensor Network : application to the physical internet / Modélisation 3D de l'arrangement d'un container basée sur des informations extraites d'un réseau de capteurs sans fil : application à l'internet physique

Tran-Dang, Hoa 26 June 2017 (has links)
Le paradigme de l’Internet Physique a été introduit il y a quelques années pour transformer globalement la manière dont les objets physiques seront manipulés, entreposés et transportés dans le cadre d’une logistique durable. L’une des caractéristiques importante de l’Internet Physique est liée à l’encapsulation des marchandises dans des conteneurs modulaires standardisés. Le modèle de fonctionnement proposé de l’Internet Physique, s’il rationnalise les transports, engendre des manutentions plus nombreuses, en particulier au sein des PI-hubs, où les opérations de routage, de déchargement et (re)chargement des conteneurs nécessitent une organisation et une gestion rationnelle. La multiplicité et la diversité des opérations (automatisées ou non) à mettre en œuvre simultanément ne peut être conduite de manière efficiente qu’en cas de parfaite synchronisation entre la réalité du système physique et de celle du système informationnel. Les propositions de cette thèse adressent cette problématique applicative et constituent à ce titre une contribution au concept de l’Internet Physique. Elles visent à l’obtention, en temps réel, d’une image ou d’un modèle spatial des PI-conteneurs, qui disposent chacun d’un nœud WSN. L’assemblage de ces différents conteneurs au sein d’un conteneur de plus haut niveau (ou conteneur composite) permet de constituer alors un réseau de capteurs ad-hoc. Ces conteneurs deviennent ainsi des éléments actifs de l’automatisation de la chaine logistique. A partir des seules informations de proximité issues de cette instrumentation, nous montrons dans cette thèse qu’il est possible de construire le modèle spatial des PI-conteneurs / The Physical Internet paradigm was introduced few years ago to transform globally how physical objects will be handled, stored and transported as part of a sustainable logistics. One of the important characteristics of the Physical Internet is the encapsulation of goods in standardized modular containers. Although the Physical Internet rationalizes transport, it generates more frequent handling, particularly within PI-hubs, where the operations of routing, unloading and (re) loading containers require an efficient organization and management. The multiplicity and the diversity of operations (automated or not) to be implemented simultaneously can only be carried out efficiently in the case of perfect synchronization between the reality of the physical system and that of the information system. The proposals of this thesis address this problem and constitute a contribution to the concept of the Physical Internet. They aim to obtain in real time, the spatial distribution (or layout) of the PI-containers when they are stacked in a higher-level container, so called composite container. To do this, we propose to exploit the intelligence and the activeness concepts of each PI container which is equipped with wireless sensor node. Hence, the composition of a composite PI containers constitutes an adhoc network of sensor nodes. From neighborhood relationships between these nodes, we show in this thesis that it is possible to construct the spatial 3D layout of the PI-containers and control at any time and at any place the effective compliance between the real composition and the data stored in the information system
814

Solutions optimales des problèmes de recouvrement sous contraintes sur le degré des nœuds / Optimal solutions of problems of finding spanning tree with constraints on the degree of the nodes

Merabet, Massinissa 05 December 2014 (has links)
Le travail que nous développons dans le cadre de cette thèse s'articule autour des problèmes de recherche de structure de recouvrement de graphes sous contrainte sur le degré des sommets. Comme l'arbre de recouvrement couvre les sommets d'un graphe connexe avec un minimum de liens, il est généralement proposé comme solution à ce type de problèmes. Cependant, pour certaines applications telles que le routage dans les réseaux optiques, les solutions ne sont pas nécessairement des sous-graphes. Nous supposons dans cette thèse que la contrainte sur le degré est due à une capacité limitée instantanée des sommets et que la seule exigence sur le recouvrement est sa connexité. Dans ce cas, la solution peut être différente d'un arbre. Nous reformulons ces problèmes de recouvrement en nous appuyant sur une extension du concept d'arbre appelée hiérarchie de recouvrement. Notre objectif principal est de démontrer son intérêt vis-à-vis de l'arbre en termes de faisabilité et de coût du recouvrement. Nous considérons deux types de contraintes sur le degré : des bornes sur le degré des sommets ou une borne sur le nombre de sommets de branchement et cherchons dans les deux cas un recouvrement de coût minimum. Nous illustrons aussi l'applicabilité des hiérarchies en étudiant un problème prenant davantage en compte la réalité du routage optique. Pour ces différents problèmes NP-difficiles, nous montrons, tant sur le coût des solutions optimales que sur la garantie de performance des solutions approchées, l'intérêt des hiérarchies de recouvrement. Ce constat se voit conforté par des expérimentations sur des graphes aléatoires. / The work conducted in this thesis is focused on the minimum spanning problems in graphs under constraints on the vertex degrees. As the spanning tree covers the vertices of a connected graph with a minimum number of links, it is generally proposed as a solution for this kind of problems. However, for some applications such as the routing in optical networks, the solution is not necessarily a sub-graph. In this thesis, we assume that the degree constraints are due to a limited instantaneous capacity of the vertices and that the only pertinent requirement on the spanning structure is its connectivity. In that case, the solution may be different from a tree. We propose the reformulation of this kind of spanning problems. To find the optimal coverage of the vertices, an extension of the tree concept called hierarchy is proposed. Our main purpose is to show its interest regarding the tree in term of feasibility and costs of the coverage. Thus, we take into account two types of degree constraints: either an upper bound on the degree of vertices and an upper bound on the number of branching vertices. We search a minimum cost spanning hierarchy in both cases. Besides, we also illustrate the applicability of hierarchies by studying a problem that takes more into account the reality of the optical routing. For all those NP-hard problems, we show the interest of the spanning hierarchy for both costs of optimal solutions and performance guarantee of approximate solutions. These results are confirmed by several experimentations on random graphs.
815

Adaptive solutions for data sharing in vehicular networks / Solutions adaptatives pour le partage de données dans les réseaux de véhicules

Pimenta de Moraes Junior, Hermes 04 May 2018 (has links)
Dans le cadre des systèmes de transport intelligents (STI), les véhicules peuvent avoir beaucoup de capteurs (caméras, lidars, radars, etc.) et d’applications (évitement des collisions, surveillance du trafic, etc.) générant des données. Ils représentent alors une source d’information importante. Les applications locales peuvent augmenter considérablement leur efficacité en partageant une telle information au sein du réseau. La précision des données, la confiance et la pertinence peuvent être vérifiées lors de la réception de données provenant d’autres nœuds. Par conséquent, nous croyons qu’une question importante à répondre dans ce contexte est: “Comment partager efficacement les données dans un tel environnement?” Le partage de données est une tâche complexe dans les réseaux dynamiques. De nombreuses problèmes telles que les connexions intermittentes, la variation de la densité du réseau et la congestion du médium de communication se posent. Une approche habituelle pour gérer ces problèmes est basée sur des processus périodiques. En effet, un message envoyé plusieurs fois peut atteindre sa destination même avec des connexions intermittentes et des réseaux à faible densité. Néanmoins, dans les réseaux à haute densité, ils peuvent entraîner une congestion du médium de communication. Dans cette thèse, nous abordons le problème du partage de données dans des réseaux dynamiques en nous appuyant sur des horizons de pertinence. Un horizon est défini comme une zone dans laquelle une information devrait être reçue. Nous commençons par nous concentrer sur le partage de données au sein des voisins directs (à 1 saut de distance). Ensuite, nous proposons une solution pour construire une carte des voisins, centrée sur le nœud ego, dans un horizon à n sauts. Enfin, nous relâchons la définition de l’horizon pour la définir de façon dynamique, où différents éléments de données peuvent atteindre des distances différentes (sauts). En ce qui concerne la solution pour les horizons à 1 saut, notre technique adaptative prend en compte la dynamique des nœuds et la charge du réseau. Afin d’assurer une diffusion efficace des données dans différents scénarios, la fréquence d’envoi des messages est définie en fonction des mouvements des véhicules et d’une estimation du taux de perte du réseau. Après, nous nous concentrons sur la carte des voisins jusqu’à n sauts de distance. Comme la communication avec des nœuds éloignés apporte des problèmes supplémentaires (actions de transfert, retards plus importants, informations périmées), une évaluation de confiance des nœuds identifiés et une estimation de fiabilité du chemin vers chaque voisin sont ajoutées à la carte. Au lieu d’exécuter des processus de diffusion séparés, notre troisième contribution porte sur une stratégie de coopération dont l’objectif principal est de diffuser des données tout en satisfaisant la plupart des nœuds. À cette fin, une trame unique est transmise de nœud en nœud. Sa charge utile est mise à jour localement afin qu’elle contienne les éléments de données les plus pertinents en fonction de certains critères (par exemple, urgence, pertinence). Une telle stratégie définit ainsi un horizon centré sur les données. Nous validons nos propositions au moyen d’émulations de réseaux réalistes. De toutes nos études et des résultats obtenus, nous pouvons affirmer que notre approche apporte des perspectives intéressantes pour le partage de données dans des réseaux dynamiques comme les VANET. / In the context of Intelligent Transportation Systems - ITS, vehicles may have a lot of sensors (e.g. cameras, lidars, radars) and applications (collision avoidance, traffic monitoring, etc.) generating data. They represent then an important source of information. Local applications can significantly increase their effectiveness by sharing such an information within the network. Data accuracy, confidence and pertinence can be verified when receiving data from other nodes. Therefore, we believe that an important question to answer in this context is: “How to efficiently share data within such an environment?” Data sharing is a complex task in dynamic networks. Many concerns like intermittent connections, network density variation and communication spectrum congestion arise. A usual approach to handle these problems is based on periodic processes. Indeed, a message sent many times can reach its destination even with intermittent connections and low density networks. Nevertheless, within high density networks, they may lead to communication spectrum scarcity. In this thesis we address the problem of data sharing in dynamic networks by relying in so-called horizons of pertinence. A horizon is defined as an area within which an information is expected to be received. We start focusing on data sharing within direct neighbors (at 1-hop of distance). Then we propose a solution to construct a map of neighbors, centered in the ego-node, within a horizon of n-hops. Finally, we relax the horizon definition to a dynamic defined one where different data items may reach different distances (hops). Regarding the solution for 1-hop horizons, our adaptive technique takes into account nodes’ dynamics and network load. In order to ensure an effective data dissemination in different scenarios, the sending messages frequency is defined according to vehicles movements and an estimation of the network loss rate. Following, we focus on the map of neighbors up to n-hops of distance. As communicationwith distant nodes brings additional concerns (forwarding actions, larger delays, out-of-date information), a trust evaluation of identified nodes and a reliability estimation of the multi-hop path to each neighbor is added to the map. Instead of running separated disseminating processes, our third contribution deals with a cooperative strategy with the main goal of disseminating data while satisfying most of the nodes. For this purpose a unique frame is forwarded from node to node. Its payload is locally updated so that it contains the most relevant data items according to some criteria (e.g. urgency, relevance). Such a strategy defines thus a data-centered horizon. We validate our proposals by means of realistic network emulations. From all our studies and achieved results we can state that our approach brings interesting insights for data sharing in dynamic networks like VANETs.
816

Data assimilation and uncertainty quantification in cardiovascular biomechanics / Assimilation de données et quantification des incertitudes en biomécanique cardiovasculaire

Lal, Rajnesh 14 June 2017 (has links)
Les simulations numériques des écoulements sanguins cardiovasculaires peuvent combler d’importantes lacunes dans les capacités actuelles de traitement clinique. En effet, elles offrent des moyens non invasifs pour quantifier l’hémodynamique dans le cœur et les principaux vaisseaux sanguins chez les patients atteints de maladies cardiovasculaires. Ainsi, elles permettent de recouvrer les caractéristiques des écoulements sanguins qui ne peuvent pas être obtenues directement à partir de l’imagerie médicale. Dans ce sens, des simulations personnalisées utilisant des informations propres aux patients aideraient à une prévision individualisée des risques. Nous pourrions en effet, disposer des informations clés sur la progression éventuelle d’une maladie ou détecter de possibles anomalies physiologiques. Les modèles numériques peuvent fournir également des moyens pour concevoir et tester de nouveaux dispositifs médicaux et peuvent être utilisés comme outils prédictifs pour la planification de traitement chirurgical personnalisé. Ils aideront ainsi à la prise de décision clinique. Cependant, une difficulté dans cette approche est que, pour être fiables, les simulations prédictives spécifiques aux patients nécessitent une assimilation efficace de leurs données médicales. Ceci nécessite la solution d’un problème hémodynamique inverse, où les paramètres du modèle sont incertains et sont estimés à l’aide des techniques d’assimilation de données.Dans cette thèse, le problème inverse pour l’estimation des paramètres est résolu par une méthode d’assimilation de données basée sur un filtre de Kalman d’ensemble (EnKF). Connaissant les incertitudes sur les mesures, un tel filtre permet la quantification des incertitudes liées aux paramètres estimés. Un algorithme d’estimation de paramètres, basé sur un filtre de Kalman d’ensemble, est proposé dans cette thèse pour des calculs hémodynamiques spécifiques à un patient, dans un réseau artériel schématique et à partir de mesures cliniques incertaines. La méthodologie est validée à travers plusieurs scenarii in silico utilisant des données synthétiques. La performance de l’algorithme d’estimation de paramètres est également évaluée sur des données expérimentales pour plusieurs réseaux artériels et dans un cas provenant d’un banc d’essai in vitro et des données cliniques réelles d’un volontaire (cas spécifique du patient). Le but principal de cette thèse est l’analyse hémodynamique spécifique du patient dans le polygone de Willis, appelé aussi cercle artériel du cerveau. Les propriétés hémodynamiques communes, comme celles de la paroi artérielle (module de Young, épaisseur de la paroi et coefficient viscoélastique), et les paramètres des conditions aux limites (coefficients de réflexion et paramètres du modèle de Windkessel) sont estimés. Il est également démontré qu’un modèle appelé compartiment d’ordre réduit (ou modèle dimension zéro) permet une estimation simple et fiable des caractéristiques du flux sanguin dans le polygone de Willis. De plus, il est ressorti que les simulations avec les paramètres estimés capturent les formes attendues pour les ondes de pression et de débit aux emplacements prescrits par le clinicien. / Cardiovascular blood flow simulations can fill several critical gaps in current clinical capabilities. They offer non-invasive ways to quantify hemodynamics in the heart and major blood vessels for patients with cardiovascular diseases, that cannot be directly obtained from medical imaging. Patient-specific simulations (incorporating data unique to the individual) enable individualised risk prediction, provide key insights into disease progression and/or abnormal physiologic detection. They also provide means to systematically design and test new medical devices, and are used as predictive tools to surgical and personalize treatment planning and, thus aid in clinical decision-making. Patient-specific predictive simulations require effective assimilation of medical data for reliable simulated predictions. This is usually achieved by the solution of an inverse hemodynamic problem, where uncertain model parameters are estimated using the techniques for merging data and numerical models known as data assimilation methods.In this thesis, the inverse problem is solved through a data assimilation method using an ensemble Kalman filter (EnKF) for parameter estimation. By using an ensemble Kalman filter, the solution also comes with a quantification of the uncertainties for the estimated parameters. An ensemble Kalman filter-based parameter estimation algorithm is proposed for patient-specific hemodynamic computations in a schematic arterial network from uncertain clinical measurements. Several in silico scenarii (using synthetic data) are considered to investigate the efficiency of the parameter estimation algorithm using EnKF. The usefulness of the parameter estimation algorithm is also assessed using experimental data from an in vitro test rig and actual real clinical data from a volunteer (patient-specific case). The proposed algorithm is evaluated on arterial networks which include single arteries, cases of bifurcation, a simple human arterial network and a complex arterial network including the circle of Willis.The ultimate aim is to perform patient-specific hemodynamic analysis in the network of the circle of Willis. Common hemodynamic properties (parameters), like arterial wall properties (Young’s modulus, wall thickness, and viscoelastic coefficient) and terminal boundary parameters (reflection coefficient and Windkessel model parameters) are estimated as the solution to an inverse problem using time series pressure values and blood flow rate as measurements. It is also demonstrated that a proper reduced order zero-dimensional compartment model can lead to a simple and reliable estimation of blood flow features in the circle of Willis. The simulations with the estimated parameters capture target pressure or flow rate waveforms at given specific locations.
817

Méthodes de domaines fictifs pour les éléments finis, application à la mécanique des structures / Fictitious domain methods for finite element methods, application to structural mechanics

Fabre, Mathieu 10 July 2015 (has links)
Cette thèse est consacrée à l’étude de méthodes de domaines fictifs pour les éléments finis. Ces méthodes, initialement conçues pour l’approximation de problèmes d’interactions fluide/structure, consistent à prolonger un domaine réel par un domaine de géométrie simple appelé domaine fictif. On applique ces méthodes à un problème de contact unilatéral sans frottement en petite déformation entre deux corps élastiques séparés par une distance initiale non nulle et possédant par ailleurs des conditions aux bords de type Dirichlet et Neumann. Les deux premiers chapitres sont consacrés à l’introduction des méthodes de domaines fictifs et du problème unilatéral de contact de deux corps élastiques. Le chapitre 3 est consacré à l’analyse a priori et à l’étude numérique de ce problème de contact en domaine fictif avec les conditions aux bords de Dirichlet et de contact qui sont prises en compte à l’aide d’une méthode de type Nitsche. Des résultats théoriques de consistance de la méthode discrète, d’existence et d’unicité sont présentés. Afin d’obtenir une estimation d’erreur a priori optimale, une stabilisation de la méthode de domaine fictif est nécessaire. Ces résultats sont validés numériquement sur des cas tests en dimensions deux et trois. Le chapitre 4 est consacré à l’étude d’un estimateur d’erreur de type résidu d’un problème de contact sans domaine fictif entre un corps élastique et un corps rigide. Les résultats théoriques sont également validés sur deux cas tests numériques : un domaine rectangulaire avec seulement une partie de la zone de contact en contact effectif ainsi qu’un contact de type Hertz en dimensions deux et trois. Le chapitre 5 est une généralisation du chapitre 4 à l’approche domaine fictif et au cas de deux corps élastiques. / This thesis is dedicated to the study of the fictitious domain methods for the finite element methods. These methods, initially designed for the fluid-structure interaction, consist in immersing the real domain in a simply-shaped and a geometrically bigger domain called the fictitious domain. We apply these methods to a unilateral frictionless contact problem in small deformation of two deformable elastics bodies separated by an initial gap and satisfying boundary Dirichlet and Neumann conditions. The first two chapters are devoted to the introduction of these methods and to the unilateral contact problem. The chapter 3 is dedicated to a theoretical study for Dirichlet and contact boundary conditions taken into account with a Nitsche type method. Some theoretical results are presented: the consistency of the discrete method, existence and uniqueness results. To obtain an optimal a priori error estimate, a stabilized fictitious domain method is necessary. These results are numerically validated using Hertz contact in two and three dimensions. The chapter 4 is devoted to the study of a residual-based a posteriori error estimator, without the fictitious domain approach, between an elastic body and rigid obstacle. The numerical study of two tests cases will be performed: a rectangular domain with only a part of the potential zone of contact in effective contact as well as a Hertz contact in two and three dimensions. The chapter 5 is a generalization of the chapter 4 to the fictitious domain approach and the care of to two elastics bodies.
818

Résultats de stabilité en théorie des représentations par des méthodes géométriques / Geometric Methods for stability-type results in representation theory

Pelletier, Maxime 24 November 2017 (has links)
Les coefficients de Kronecker, qui sont indexés par des triplets de partitions et décrivent la décomposition du produit tensoriel de deux représentations irréductibles d'un groupe symétrique en somme directe de telles représentations, ont été introduits par Francis Murnaghan dans les années 1930. Il a notamment remarqué un comportement particulier de ces coefficients : à partir de n'importe quel triplet de partitions, on peut construire une certaine suite de coefficients de Kronecker qui est stationnaire.Afin de généraliser cette propriété, John Stembridge a introduit en 2014 une notion de stabilité pour les triplets de partitions, ainsi qu'une autre notion -- celle de triplet faiblement stable -- dont il a conjecturé qu'elle serait équivalente à la précédente. Cette conjecture a été démontrée peu après par Steven Sam et Andrew Snowden, par des méthodes algébriques.Dans cette thèse, on donne notamment une autre démonstration -- cette fois géométrique -- de cette équivalence grâce à l'interprétation classique des coefficients de Kronecker comme dimensions d'espaces de sections de fibrés en droites sur des variétés de drapeaux. Ces méthodes permettent également de s'intéresser à quelques questions plus précises : la stabilité dont on parle consiste en le fait que certaines suites de coefficients sont stationnaires, et on se demande à partir de quand ces suites deviennent constantes.On applique ensuite ces techniques à d'autres exemples de coefficients de branchement, puis on s'intéresse à un autre problème : celui de produire des triplets stables de partitions. On généralise ainsi un résultat obtenu indépendamment par Laurent Manivel et Ernesto Vallejo sur ce sujet / The Kronecker coefficients, which are indexed by triples of partitions and describe how the tensor product of two irreducible representations of the symmetric group decomposes as a direct sum of such representations, were introduced by Francis Murnaghan in the 1930s. He notably noticed a remarkable behaviour of these coefficients: from any triple of partitions, one can construct a particular sequence of Kronecker coefficients which eventually stabilises.In order to generalise this property, John Stembridge introduced in 2014 a notion of stability for triples of partitions, as well as another notion -- of weakly stable triple -- about which he conjectured that it should be equivalent to the previous one. This conjecture was proven shortly after by Steven Sam and Andrew Snowden, with algebraic methods.In this thesis we especially give another proof -- this time geometric -- of this equivalence, using the classical expression of the Kronecker coefficients as dimensions of spaces of sections of line bundles on flag varieties. With these methods we can also be interested in more specific questions: since the stability which we discuss means that some sequences of coefficients stabilise, one can wonder at which point these sequences become constant.We then apply these techniques to other examples of branching coefficients, and are also interested in another problem: how can we produce stable triples of partitions? We thus generalise a result obtained independently by Laurent Manivel and Ernesto Vallejo on this subject
819

Contribution aux traitements des incertitudes : application à la métrologie des nanoparticules en phase aérosol. / Contribution to the treatment of uncertainties. : Application to the metrology of nanoparticles under aerosol-phase.

Coquelin, Loïc 04 October 2013 (has links)
Cette thèse a pour objectif de fournir aux utilisateurs de SMPS (Scanning Mobility Particle Sizer) une méthodologie pour calculer les incertitudes associées à l’estimation de la granulométrie en nombre des aérosols. Le résultat de mesure est le comptage des particules de l’aérosol en fonction du temps. Estimer la granulométrie en nombre de l’aérosol à partir des mesures CNC revient à considérer un problème inverse sous incertitudes.Une revue des modèles existants est présentée dans le premier chapitre. Le modèle physique retenu fait consensus dans le domaine d’application.Dans le deuxième chapitre, un critère pour l’estimation de la granulométrie en nombre qui couple les techniques de régularisation et de la décomposition sur une base d’ondelettes est décrit.La nouveauté des travaux présentés réside dans l’estimation de granulométries présentant à la fois des variations lentes et des variations rapides. L’approche multi-échelle que nous proposons pour la définition du nouveau critère de régularisation permet d’ajuster les poids de la régularisation sur chaque échelle du signal. La méthode est alors comparée avec la régularisation classique. Les résultats montrent que les estimations proposées par la nouvelle méthode sont meilleures (au sens du MSE) que les estimations classiques.Le dernier chapitre de cette thèse traite de la propagation de l’incertitude à travers le modèle d’inversiondes données. C’est une première dans le domaine d’application car aucune incertitude n’est associée actuellement au résultat de mesure. Contrairement à l’approche classique qui utilise un modèle fixe pour l’inversion en faisant porter l’incertitude sur les entrées, nous proposons d’utiliser un modèle d’inversion aléatoire (tirage Monte-Carlo) afin d’intégrer les erreurs de modèle. Une estimation moyenne de la granulométrie en nombre de l’aérosol et une incertitude associée sous forme d’une région de confiance à 95 % est finalement présentée sur quelques mesures réelles. / This thesis aims to provide SMPS (Scanning Mobility Particle Sizer) users with a methodology to compute the uncertainties associated with the estimation of aerosol size distributions. Recovering aerosol size distribution yields to consider an inverse problem under uncertainty.The first chapter of his thesis presents a review of physical models and it shows that competitive theories exist to model the physic.A new criterion that couples regularization techniques and decomposition on a wavelet basis is described in chapter 2 to perform the estimation of the size distribution.Main improvement of this work is brought when size distributions to be estimated show both broad and sharp profiles. The multi-scale approach helps to adjust the weights of the regularization on each scale of the signal. The method is then tested against common regularization and shows better estimates (in terms of the mean square error).Last chapter of this thesis deals with the propagation of the uncertainty through the data inversion process.Results from SMPS measurements are not given with any uncertainty at this time so providing end-users with an uncertainty is already a real improvement. Common approach is to consider a fixed physical model and to model the inputs (particle count) as random. We choose to consider both the physical model as well as the inputs as random to account for the model error. The result is expressed as a mean estimate of the size distribution with a 95% coverage region. The all methodology is finally tested on real measurements.
820

An evidential answer for the capacitated vehicle routing problem with uncertain demands / Une réponse évidentielle pour le problème de tournée de véhicules avec contrainte de capacité et demandes incertaines

Helal, Nathalie 20 December 2017 (has links)
Le problème de tournées de véhicules avec contrainte de capacité est un problème important en optimisation combinatoire. L'objectif du problème est de déterminer l'ensemble des routes, nécessaire pour servir les demandes déterministes des clients ayant un cout minimal, tout en respectant la capacité limite des véhicules. Cependant, dans de nombreuses applications réelles, nous sommes confrontés à des incertitudes sur les demandes des clients. La plupart des travaux qui ont traité ce problème ont supposé que les demandes des clients étaient des variables aléatoires. Nous nous proposons dans cette thèse de représenter l'incertitude sur les demandes des clients dans le cadre de la théorie de l'évidence - un formalisme alternatif pour modéliser les incertitudes. Pour résoudre le problème d'optimisation qui résulte, nous généralisons les approches de modélisation classiques en programmation stochastique. Précisément, nous proposons deux modèles pour ce problème. Le premier modèle, est une extension de l'approche chance-constrained programming, qui impose des bornes minimales pour la croyance et la plausibilité que la somme des demandes sur chaque route respecte la capacité des véhicules. Le deuxième modèle étend l'approche stochastic programming with recourse: l'incertitude sur les recours (actions correctives) possibles sur chaque route est représentée par une fonction de croyance et le coût d'une route est alors son coût classique (sans recours) additionné du pire coût espéré des recours. Certaines propriétés de ces deux modèles sont étudiées. Un algorithme de recuit simulé est adapté pour résoudre les deux modèles et est testé expérimentalement. / The capacitated vehicle routing problem is an important combinatorial optimisation problem. Its objective is to find a set of routes of minimum cost, such that a fleet of vehicles initially located at a depot service the deterministic demands of a set of customers, while respecting capacity limits of the vehicles. Still, in many real-life applications, we are faced with uncertainty on customer demands. Most of the research papers that handled this situation, assumed that customer demands are random variables. In this thesis, we propose to represent uncertainty on customer demands using evidence theory - an alternative uncertainty theory. To tackle the resulting optimisation problem, we extend classical stochastic programming modelling approaches. Specifically, we propose two models for this problem. The first model is an extension of the chance-constrained programming approach, which imposes certain minimum bounds on the belief and plausibility that the sum of the demands on each route respects the vehicle capacity. The second model extends the stochastic programming with recourse approach: it represents by a belief function for each route the uncertainty on its recourses (corrective actions) and defines the cost of a route as its classical cost (without recourse) plus the worst expected cost of its recourses. Some properties of these two models are studied. A simulated annealing algorithm is adapted to solve both models and is experimentally tested.

Page generated in 0.0249 seconds