• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 197
  • 97
  • 15
  • 1
  • Tagged with
  • 309
  • 114
  • 85
  • 71
  • 68
  • 63
  • 62
  • 56
  • 52
  • 51
  • 51
  • 49
  • 47
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Modélisation micromécanique et identification inverse de l’endommagement par approches cohésives / Micromechanical modelling and inverse identification of damage

Blal, Nawfal 12 September 2013 (has links)
Un modèle micromécanique est proposé pour une collection de zones cohésives insérées entre toutes les mailles d'une discrétisation de type éléments finis cohésifs-volumiques. Le principe de l'approche consiste à introduire un composite équivalent 'matrice-inclusions' comme une représentation de la discrétisation cohésive-volumique. Le modèle obtenu à l'aide de techniques d'homogénéisation (schéma de Hashin Shtrikman et approche de P. Ponte Castañeda) permet de décrire le comportement macroscopique élastique, fragile et ductile.Il est valable quel que soit le taux de triaxialité appliqué et la forme de la loi cohésive retenue, et permet de relier d'une façon explicite les propriétés macroscopiques du matériau aux différents paramètres cohésifs ainsi qu'à la densité de maillage.Un premier résultat est l'établissement d'un critère pratique permettant de définir les raideurs cohésives au regard de la souplesse additionnelle inhérente à l'utilisation des modèles de zones cohésives intrinsèques. L'extension du modèle au cas de la rupture fragile et ductile, permet d'obtenir d'autres critères pratiques pour calibrer les autres paramètres cohésifs (contrainte cohésive maximale, ouverture critique, énergie de fissuration, ...). L'utilisation couplée des critères obtenus permet une calibration inverse des paramètres de la loi cohésive en fonction des propriétés macroscopiques du matériau et de la taille de maillage. De fait il est possible de prédire un comportement homogène global indépendamment de la taille du maillage. / In this study a micromechanical model is proposed for a collection of cohesive zone models embedded between two each elements of a standard cohesive-volumetric finite element method. An equivalent 'matrix-inclusions' composite is proposed as a representation of the cohesive-volumetric discretization. The overall behaviour is obtained using homogenization approaches (Hashin Shtrikman scheme and the P. Ponte Castañeda approach). The derived model deals with elastic, brittle and ductile materials. It is available whatever the triaxiality loading rate and the shape of the cohesive law, and leads to direct relationships between the overall material properties and the local cohesive parameters and the mesh density.First, rigorous bounds on the normal and tangential cohesive stiffnesses are obtained leading to a suitable control of the inherent artificial elastic loss induced by intrinsic cohesive models. Second, theoretical criteria on damageable and ductile cohesive parameters are established (cohesive peak stress, critical separation, cohesive failure energy, ...). These criteria allow a practical calibration of the cohesive zone parameters as function of the overall material properties and the mesh length.The main interest of such calibration is its promising capacity to lead to a mesh-insensitive overall response in surface damage.
112

Animation de capture de mouvement de surface / Surface motion capture animation

Boukhayma, Adnane 06 December 2017 (has links)
En tant qu'une nouvelle alternative à la MoCap standard, la capture de surface 4D est motivée par la demande croissante des produits médiatiques de contenu 3D très réaliste. Ce type de données fournit une information complète et réelle de la forme, l'apparence et la cinématique de l'objet dynamique d'intérêt. On aborde dans cet ouvrage certaines taches liées à l'acquisition et l'exploitation de données 4D, obtenues à travers les vidéos multi-vues, avec un intérêt particulier aux formes humaines en mouvements. Parmi ces problèmes, certains ont déjà reçu beaucoup d'intérêt de la part des communautés de vision par ordinateur et d'infographie, mais plusieurs challenges restent ouverts à cet égard. En particulier, nous abordons la synthèse d'animation basée sur des exemples, la modélisation d'apparence et le transfert sémantique de mouvement.On introduit premièrement une méthode pour générer des animations en utilisant des séquences de maillages de mouvements élémentaires d'une forme donnée. De nouveaux mouvements satisfaisant des contraints hauts-niveaux sont construites en combinant et interpolant les trames des données observées. Notre méthode apporte une amélioration local au processus de la synthèse grâce à l'optimisation des transitions interpolées, ainsi qu'une amélioration globale avec une structure organisatrice optimale qu'on appelle le graph essentiel.On aborde en suite la construction de représentations efficaces de l'apparence de formes en mouvement observées à travers des vidéos multi-vue. On propose une représentation par sujet qui identifie la structure sous-jacente de l'information d'apparence relative à uneforme particulière. La représentation propre résultante représente les variabilités d'apparence dues au point de vue et au mouvement avec les textures propres, et celles dues aux imprécisions locales dans le modèle géométrique avec les déformations propres. Outre fournir des représentation compactes, ces décompositions permettent aussi l'interpolation et la complétion des apparences.Finalement, on s'intéresse au problème de transfert de mouvement entre deux modèles 4D capturés. Étant donné des ensembles d'apprentissages pour deux sujets avec des correspondances sémantiques éparses entre des poses clés, notre méthode est capable de transférer un nouveau mouvement capturé d'un sujet vers l'autre. Nous contribuons principalement un nouveau modèle de transfert basé sur l'interpolation non-linéaire de pose et de déplacement qui utilise les processus Gaussiens de régression. / As a new alternative to standard motion capture, 4D surface capture is motivated by the increasing demand from media production for highly realistic 3D content.Such data provides real full shape, appearance and kinematic information of the dynamic object of interest. We address in this work some of the tasks related to the acquisition and the exploitation of 4D data, as obtained through multi-view videos, with an emphasis on corpus of moving subjects. Some of these problems have already received a great deal of interest from the graphics and vision communities, but a number of challenges remain open in this respect. We address namely example based animation synthesis, appearance modelling and semantic motion transfer.We first propose a method to generate animations using video-based mesh sequences of elementary movements of a shape. New motions that satisfy high-level user-specified constraints are built by recombining and interpolating the frames in the observed mesh sequences. Our method brings local improvement to the synthesis process through optimized interpolated transitions, and global improvement with an optimal organizing structure that we call the essential graph.We then address the problem of building efficient appearance representations of shapes observed from multiple viewpoints and in several movements. We propose a per subject representation that identifies the underlying manifold structure of the appearance information relative to a shape. The resulting Eigen representation encodes shape appearance variabilities due to viewpoint and illumination, with Eigen textures, and due to local inaccuracies in the geometric model, with Eigen warps. In addition to providing compact representations, such decompositions also allow for appearance interpolation and appearance completion.We finally address the problem of transferring motion between captured 4D models. Given 4D training sets for two subjects for which a sparse set of semantically corresponding key-poses are known, our method is able to transfer a newly captured motion from one subject to the other. The method contributes a new transfer model based on non-linear pose and displacement interpolation that builds on Gaussian process regression.
113

Mesures de similarité pour cartes généralisées / Similarity measures between generalized maps

Combier, Camille 28 November 2012 (has links)
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l’ensemblede leurs relations d’incidence et d’adjacence au moyen de brins et d’involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d’outils permettant l’analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d’outils permettant la comparaisonde cartes généralisées.Nous définissons tout d’abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled’opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu’une distance d’édition. La distance d’édition est égale au coût minimal engendrépar toutes les successions d’opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d’étiquettes, grâce à l’opérationde substitution. Les étiquettes sont posées sur les brins et permettent d’ajouter del’information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d’édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d’édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d’édition de cartes. Nous proposons un ensemble d’heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl’algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d’utilisation de nos mesures de similarités dans le domainede l’analyse d’image et de maillages. Nous comparons notre distance d’éditionde cartes généralisées avec la distance d’édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d’heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l’aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l’image et des points du maillages. / A generalized map is a topological model that allows to represent implicitly differenttypes of cells (vertices, edges, volumes, . . . ) and their relationship by using a set of dartsand some involutions. Generalized maps are used to model 3D meshes and images.Anyway there exists only few tools to compare theses generalized maps. Our main goalis to define some tools tolerant to error to compare them.We define a similarity measure based on the size of the common part of two generalizedmaps, called maximum common submap. Then we define two types of submaps,partial and induced, the induced submap needs to preserve all the involutions whereasthe partial one can allow some involutions to be removed. Then we define a set of operationsto modify a generalized map into another and the associated edit distance. Theedit distance is equal to the minimal cost of all the sequences of operations that modifya generalized map into the other. This edit distance can use labels to consider additionalinformation, with the operation called ’substitution’. Labels are set on darts. Wenext showa relation between our edit distance and the distance based on the maximumcommon submap.Computing theses distance are aNP-hard problem.We propose a greedy algorithmcomputing an approximation of it. We also propose a set of heuristics based on thedescription of the neighborhoob of the darts to help the greedy algorithm.We try thesesheuristics on a set of generalized maps randomly generated where a lower bound of thedistance is known. We also propose some applications of our similarity measures inthe image analysis domain. We compare our edit distance on generalized maps withthe edit distance on graphs. We also define a set of labels specific on images and 3Dmeshes. And we show that the matching computed by our algorithm construct a linkbetween images’s areas.
114

Adaptive control of deterministic and stochastic approximation errors in simulations of compressible flow / Contrôle adaptatif des erreurs d'approximation stochastique et déterministe dans la simulation des écoulements compressible

Van Langenhove, Jan Willem 25 October 2017 (has links)
La simulation de systèmes d'ingénierie non linéaire complexes tels que les écoulements de fluide compressibles peut être ciblée pour rendre plus efficace et précise l'approximation d'une quantité spécifique (scalaire) d'intérêt du système. En mettant de côté l'erreur de modélisation et l'incertitude paramétrique, on peut y parvenir en combinant des estimations d'erreurs axées sur des objectifs et des raffinements adaptatifs de maillage spatial anisotrope. A cette fin, un cadre élégant et efficace est celui de l'adaptation dite basé-métrique où une estimation d'erreur a priori est utilisée comme indicateur d’adaptation de maillage. Dans cette thèse on propose une nouvelle extension de cette approche au cas des approximations de système portant une composante stochastique. Dans ce cas, un problème d'optimisation est formulé et résolu pour un meilleur contrôle des sources d'erreurs. Ce problème est posé dans le cadre continu de l'espace de métrique riemannien. Des développements algorithmiques sont également proposés afin de déterminer les sources dominates d’erreur et effectuer l’adaptation dans les espaces physique ou des paramètres incertains. L’approche proposé est testée sur divers problèmes comprenant une entrée de scramjet supersonique soumise à des incertitudes paramétriques géométriques et opérationnelles. Il est démontré que cette approche est capable de bien capturé les singularités dans l’escape stochastique, tout en équilibrant le budget de calcul et les raffinements de maillage dans les deux espaces. / The simulation of complex nonlinear engineering systems such as compressible fluid flows may be targeted to make more efficient and accurate the approximation of a specific (scalar) quantity of interest of the system. Putting aside modeling error and parametric uncertainty, this may be achieved by combining goal-oriented error estimates and adaptive anisotropic spatial mesh refinements. To this end, an elegant and efficient framework is the one of (Riemannian) metric-based adaptation where a goal-based a priori error estimation is used as indicator for adaptivity. This thesis proposes a novel extension of this approach to the case of aforementioned system approximations bearing a stochastic component. In this case, an optimisation problem leading to the best control of the distinct sources of errors is formulated in the continuous framework of the Riemannian metric space. Algorithmic developments are also presented in order to quantify and adaptively adjust the error components in the deterministic and stochastic approximation spaces. The capability of the proposed method is tested on various problems including a supersonic scramjet inlet subject to geometrical and operational parametric uncertainties. It is demonstrated to accurately capture discontinuous features of stochastic compressible flows impacting pressure-related quantities of interest, while balancing computational budget and refinements in both spaces.
115

Material-driven mesh derived from medical images for biomechanical system : application on modeling of the lumbar spine / Maillage « material-driven » délivré à partir d'images médicales pour système biomécanique : application sur la modélisation du rachis lombaire

Nguyen, Ho Quang 10 November 2016 (has links)
La lombalgie est un problème de santé commun qui touche une grande partie de la population des pays industrialisés. Au cours des années, la modélisation numérique a été largement étudiée pour étudier la biomécanique du rachis lombaire pour aider fortement les cliniciens dans le diagnostic et les traitements de cette pathologie. Ce travail présente une méthodologie pour la modélisation éléments finis spécifique au patient prenant en compte à la fois la géométrie individualisée et les propriétés des matériaux des structures biologiques. Dans cette étude, le maillage est piloté par des connaissances des matériaux personnalisées qui sont extraites de l'imagerie médicale avancée. En outre, un logiciel convivial comprenant du traitement d'images, des maillages « material-driven » et de l'affectation des propriétés des matériaux, nommé C3M pour le «Computed Material-driven Mesh Model», a été développé pour générer efficacement des modèles FE spécifiques aux sujets à partir d'images médicales. Ce procédé est appliqué pour générer un modèle FE spécifique au patient du rachis lombaire à partir d'images issues par Résonance Magnétique (IRM) ou par tomodensitométrie 3D (CT). Cette approche ouvre une nouvelle perspective pour améliorer le processus de maillage à l'aide de connaissances du matériel dérivées d'images médicales. Le modèle proposé permet un assemblage précis et simple de vertèbres et des disques intervertébraux en tenant en compte à la fois la géométrie et les propriétés mécaniques des matériaux reflétant la spécificité du patient. / Low back pain is a common health problem which impacts a large part of the population in industrialized countries. Over the years, numerical modeling has been widely studied to investigate the biomechanics of lumbar spine for strongly assisting clinicians in diagnosis and treatments of this spinal pathology. In recent years, there has been a growing interest in researching and developing patient specific computer modeling which has proven its ability to provide great promises for developing realistic model of individual subject. However, still the specificity of these models is not fully described or is often limited to patient geometry. In fact, few models consider appropriate material properties derived from tissue characterization obtained from medical images. Furthermore, patient specific models can be obtained with geometry and mechanical properties derived from CT, but few from MRI which is well-suited for examining soft tissues. Therefore, development of the high-fidelity, patient-specific finite element model of the lumbar spine still presents the challenge. In this context of patient-specific finite element modeling, mesh generation is a crucial issue which requires an accurate representation of the geometry with well-shaped and sized elements and a relevant distribution of materials. This work presents a methodology for patient-specific finite element modeling which takes both individualized geometry and material properties of biological structures into consideration. In this study, the mesh is driven by personalized material knowledge which is extracted from advanced medical imaging. Additionally, a user-friendly program including image processing, material-driven meshing and material properties assignment, named C3M for “Computed Material-driven Mesh Model”, has been developed to generate efficiently subject-specific FE models derived from medical images. This process is applied to generate a patient specific FE model of lumbar spine based on both MRI and CT images. This approach opens a new direction to improve the meshing process using material knowledge derived from medical images. The proposed model allows an accurate and straightforward assembly of vertebrae and IVDs considering both geometry and material properties reflecting patient-specificity.
116

Clonage réaliste de visage. / Realistic face clone

Manceau, Jérôme 04 May 2016 (has links)
Les clones de visage 3D peuvent être utilisés dans de nombreux domaines tels que l'interaction homme-machine et comme prétraitement dans des applications telles que l'analyse de l'émotion. Toutefois, ces clones doivent avoir la forme du visage bien modélisée tout en conservant les spécificités des individus et ils doivent être sémantiques. Un clone est sémantique quand on connaît la position des différentes parties du visage (yeux, nez ...). Dans notre technique, nous utilisons un capteur RVB-Z pour obtenir les spécificités des individus et un modèle déformable de visage 3D pour marquer la forme du visage. Pour la reconstruction de la forme, nous inversons le processus utilisé classiquement. En effet, nous réalisons d'abord le fitting puis la fusion de données. Pour chaque trame de profondeur, nous gardons les parties appropriées de données appelées patchs de forme. Selon le positionnement de ces patchs, nous fusionnons les données du capteur ou les données du modèle déformable de visage 3D. Pour la reconstruction de la texture, nous utilisons des patchs de forme et de texture pour préserver les caractéristiques de la personne. Ils sont détectés à partir des cartes de profondeur du capteur. Les tests que nous avons effectués montrent la robustesse et la précision de notre méthode. / 3D face clones can be used in many areas such as Human-Computer Interaction and as pretreatment in applications such as emotion analysis. However, such clones should have well-modeled facial shape while keeping the specificities of individuals and they should be semantic. A clone is semantic when we know the position of the different parts of the face (eyes, nose...). In our technique, we use a RGB-D sensor to get the specificities of individuals and 3D Morphable Face Model to mark facial shape. For the reconstruction of the shape, we reverse the process classically used. Indeed, we first perform fitting and then data fusion. For each depth frame, we keep the suitable parts of data called patches. Depending on the location, we merge either sensor data or 3D Morphable Face Model data. For the reconstruction of the texture, we use shape and texture patches to preserve the person's characteristics. They are detected using the depth frames of a RGB-D sensor. The tests we perform show the robustness and the accuracy of our method.
117

Multi-scale simulation of automotive catalytic converters / Simulation multi-échelle de l'écoulement dans les systèmes de post-traitement des gaz d'échappement automobile

Ozhan, Cansu 21 November 2014 (has links)
L'utilisation croissante de véhicules au cours des dernières décennies a causé une augmentation dans les émissions de gaz d'échappement nocifs provoquant des problèmes de santé et d'environnement. Cette problématique a conduit les gouvernements à mettre en place des limites d'émissions plus strictes. Afin de respecter ces limites, il est nécessaire de développer des systèmes de post-traitement plus performants. Parmi plusieurs solutions possibles, l'analyse et l'optimisation de l'impact de l'écoulement sur les réactions chimiques est une approche importante pour résoudre ce problème complexe. Au point de vue expérimental, il est très difficile de mesurer le champ de vitesse détaillé et la distribution de la température et de la concentration. Les simulations numériques peuvent fournir des informations supplémentaires pour comprendre l'interaction entre la distribution de l'écoulement et l'efficacité des réactions. La simulation numérique de ces systèmes est très coûteuse due aux phénomènes physiques et chimiques complexes ayant lieu simultanément dans tout le système. Afin de diminuer ce coût, on peut développer des modèles physiques et chimiques simplifiés ainsi que des techniques numériques spécifiques pour simuler le système tout en réduisant le temps de calcul. Dans cette thèse, nous développons une approche générale pour modéliser et simuler le système de post-traitement des gaz d'échappement automobile contenant les aspects physiques et chimiques. L'approche présente combine des modèles simplifiés et des techniques numériques de multi-résolutions afin de capturer correctement les caractéristiques de l'écoulement dans le système. Alors que la méthode de raffinement de maillage adaptatif (AMR) est optimisée afin de minimiser l'effort de calcul dans les régions divergente et convergente, un modèle de sous-maille est développé pour décrire l'écoulement dans les micro-canaux du substrat catalytique placé entre la région divergente et la région convergente. La performance du modèle est validée par rapport aux résultats expérimentaux obtenus par Benjamin et al. (2002). Le couplage effectif de méthode AMR et le modèle de sous-maille permet de capturer les caractéristiques de l'écoulement dans le système avec un temps de calcul réduit de manière significative. L'impact de l'écoulement pulsé et de l'écoulement en expansion sur le taux de réaction dans un canal de monolithe est étudié numériquement. La méthode AMR est montrée pour capturer les couches mince de diffusion près de la paroi à l'interface solide-liquide. Sur la base des résultats numériques, nous proposons un modèle simplifié de transport capturant les effets de l'écoulement, la diffusion et la réaction catalytiques à la paroi. Le modèle simplifié de transport peut être directement appliqué dans la forme de modèle de sous-maille pour la description complète de tous les processus physiques et chimiques ayant lieu à l'intérieur du système. Grâce aux approches de modélisation numériques physiques et chimiques développées, il est possible de simuler le système en trois dimensions avec un temps de calcul raisonnable capturant encore la physique principale du problème. / The increasing use of passenger vehicles over the past decades has caused an increase in harmful exhaust gas emissions which give rise to environmental and health problems. This problematic has led governments to establish very stringent emission limits. The emission restrictions require more performing after-treatment systems. Among many other solutions, analysing and optimising the flow impact on the conversion efficiency is an important step towards the solution of the complex engineering problem. Detailed velocity, temperature and concentration distributions are very difficult to measure experimentally. Numerical simulations can provide additional information to understand the interaction of flow distribution and conversion efficiency. The simulation of these systems is computationally very expensive due to complex physical and chemical phenomena occurring simultaneously throughout the system. To overcome this cost, one can resort to some simplified physical and chemical models together with specific numerical techniques to simulate the system with a reduced computational time. In this dissertation, we develop a general approach to model and simulate the automotive catalytic converter system including all the physical and chemical processes. The present approach combines sub-grid models and numerical multi-resolution techniques in order to correctly capture the flow characteristics inside an automotive catalytic converter. While Adaptive Mesh Refinement (AMR) techniques are optimized in order to minimise the computational effort in the divergent and convergent regions, a sub-grid model is developed to describe the flow inside the catalytic substrate placed between the convergent and divergent regions. The performance of the sub-grid model is validated against the experimental results obtained by Benjamin et al. (2002). The effective coupling of AMR techniques and the sub-grid model allows to capture the flow features with significantly reduced computational time. The impact of pulsating and expansion flow on the conversion efficiency within a single monolith channel is investigated numerically. AMR techniques are shown to capture the small boundary layers near the wall at the solid-fluid interface. Based on the numerical results, we propose a simplified transport model that captures the effects of flow, diffusion and catalytic wall reactions. The simplified transport model can be directly applied as a sub-grid model for the complete description of all the physical and chemical processes taking place inside the system. The developed physical, chemical and numerical modelling approaches make the three-dimensional simulations possible with a reasonable computational time still capturing the main physics of the problem.
118

Suivi d’objets dans des séquences d’images de scènes déformables : de l’importance des points d’intérêt et du maillage 2D / Objects tracking in video of non rigid scenes : importance of interest points and 2D mesh

Parisot, Pascaline 23 January 2009 (has links)
Nous abordons le suivi d’objets dans des séquences d’images de scènes déformables selon deux axes de recherche. Il s’agit de déterminer les transformations d’un objet, d’une image à l’autre, lorsque celui-ci s’est éventuellement déformé ou déplacé et lorsque le point de vue de la caméra a éventuellement été modifié (déplacement, zoom...). Pour cela, nous nous sommes inspirés de l’algorithme de Jurie et Dhome qui permet de suivre un objet plan indéformable. D’une part, nous en améliorons les performances. D’autre part, nous le généralisons au cas d’objets déformables. Le premier axe de recherche consiste à améliorer les performances de l’algorithme de Jurie et Dhome en termes de précision et robustesse. Le suivi s’appuie sur un ensemble de points d’intérêt, dont dépendent fortement les performances. Ces points d’intérêt sont issus d’une sélection des points obtenus par des détecteurs reconnus, à savoir SIFT, KLT, SUSAN, HARRIS et MORAVEC. Nous avons étudié et mis en oeuvre, sur différentes classes d’images, des heuristiques de sélection fondées sur des approches statistique et algébrique. Nous montrons : – qu’il n’existe pas de détecteur universel, – que l’approche statistique est à privilégier dans tous les cas. Le second axe de recherche est une proposition d’un nouvel algorithme de suivi s’appuyant sur le maillage 2D des images de la séquence. Cet algorithme généralise celui de Jurie et Dhome aux scènes déformables. Il repose sur : – des transformations élémentaires (nodales) du maillage, directes et inverses, que nous avons caractérisées tant d’un point de vue géométrique qu’analytique, – l’utilisation des coordonnées barycentriques généralisées pour approcher la composition de deux transformations d’un maillage. Cet algorithme donne des résultats similaires à celui d’appariement hexagonal de Nakaya et Harashima tout en étant plus rapide. / We deal with object tracking in videos of non-rigid scenes with two main purposes. We aim at determining the transformations of an object, from one frame to the next, when it may be distorted or moved and when the camera focus may change (movement, zoom...). To do this, we were inspired by the Jurie and Dhome algorithm, which enables the tracking of plane rigid objects. On the one hand, we improve its performance. On the other hand, we generalize it to non-rigid objects. The first goal consists in improving the performance of the Jurie and Dhome algorithm, in terms of accuracy and robustness. The tracking is based on a set of interest points, which has a great effect on the algorithm’s performance. These interest points come from a selection among the points extracted with some common detectors: SIFT, KLT, SUSAN, HARRIS, and MORAVEC.With various pictures classes, we have studied and implemented some selection heuristics based on statistical or algebraic approaches. We show that : • there is no universal detector, • the statistical approach is the best in all cases. The second goal is a proposal of a new tracking algorithm based on a 2D mesh of the video frames. This algorithm generalizes the Jurie and Dhome one for non-rigid scenes. It is based on : • elementary (nodal), direct or inverse, mesh transformations that we geometrically and analytically characterize, • generalized barycentric coordinates to approximate the composition of two mesh transformations. This algorithm gives similar results to the hexagonal matching algorithm of Nakaya and Harashima while being faster.
119

Analyse a posteriori d'algorithmes itératifs pour des problèmes non linéaires. / A posteriori analyses of iterative algorithm for nonlinear problems.

Dakroub, Jad 07 October 2014 (has links)
La résolution numérique de n’importe quelle discrétisation d’équations aux dérivées partielles non linéaires requiert le plus souvent un algorithme itératif. En général, la discrétisation des équations aux dérivées partielles donne lieu à des systèmes de grandes dimensions. Comme la résolution des grands systèmes est très coûteuse en terme de temps de calcul, une question importante se pose: afin d’obtenir une solution approchée de bonne qualité, quand est-ce qu’il faut arrêter l’itération afin d’éviter les itérations inutiles ? L’objectif de cette thèse est alors d’appliquer, à différentes équations, une méthode qui nous permet de diminuer le nombre d’itérations de la résolution des systèmes en gardant toujours une bonne précision de la méthode numérique. En d’autres termes, notre but est d’appliquer une nouvelle méthode qui fournira un gain remarquable en terme de temps de calcul. Tout d’abord, nous appliquons cette méthode pour un problème non linéaire modèle. Nous effectuons l’analyse a priori et a posteriori de la discrétisation par éléments finis de ce problème et nous proposons par la suite deux algorithmes de résolution itérative correspondants. Nous calculons les estimations d’erreur a posteriori de nos algorithmes itératifs proposés et nous présentons ensuite quelques résultats d’expérience numériques afin de comparer ces deux algorithmes. Nous appliquerons de même cette approche pour les équations de Navier-Stokes. Nous proposons un schéma itératif et nous étudions la convergence et l’analyse a priori et a posteriori correspondantes. Finalement, nous présentons des simulations numériques montrant l’efficacité de notre méthode. / The numerical resolution of any discretization of nonlinear PDEs most often requires an iterative algorithm. In general, the discretization of partial differential equations leads to large systems. As the resolution of large systems is very costly in terms of computation time, an important question arises. To obtain an approximate solution of good quality, when is it necessary to stop the iteration in order to avoid unnecessary iterations? A posteriori error indicators have been studied in recent years owing to their remarkable capacity to enhance both speed and accuracy in computing. This thesis deals with a posteriori error estimation for the finite element discretization of nonlinear problems. Our purpose is to apply a new method that allows us to reduce the number of iterations of the resolution system while keeping a good accuracy of the numerical method. In other words, our goal is to apply a new method that provides a remarkable gain in computation time. For a given nonlinear equation we propose a finite element discretization relying on the Galerkin method. We solve the discrete problem using two iterative methods involving some kind of linearization. For each of them, there are actually two sources of error, namely discretization and linearization. Balancing these two errors can be very important, since it avoids performing an excessive number of iterations. Our results lead to the construction of computable upper indicators for the full error. Similarly, we apply this approach to the Navier-Stokes equations. Several numerical tests are provided to evaluate the efficiency of our indicators.
120

Modèles de conduction électrique pour la stimulation de l'implant cochléaire / Electrical conduction models for cochlear implant stimulation

Dang, Kai 13 June 2017 (has links)
De nombreux modèles numériques ont été proposés pour mieux comprendre comment le courant électrique est répartit lors d’une stimulation électrique par implant cochléaire. Ceci permet à terme d’optimiser la géométrie des électrodes et les stratégies de stimulation. Les modèles précédemment proposés modélisent les modèles d'interface électrochimique de façon très basique, et ne prennent généralement compte que de l'intensité du courant sur les électrodes. Par conséquent, il leur est difficile de simuler la dynamique temporelle de la stimulation ou de modéliser la répartition du courant en fonction de différents modes de stimulation contrôlés en tension, tels que le mode de de retour commun (Common Ground), ou de retour multiple (Multi-Mode Grounding). Dans cette thèse, nous avons développé un nouveau modèle surfacique de la cochlée. Le modèle géométrique dépend d'un ensemble de paramètres permettant d'ajuster la forme de la cochlée, en utilisant par exemple des données histologiques, des scans CT, ou encore des maillages de surface. Un modèle paramétrique nous a permis de comparer les courants générés par les modèles d'électrodes actuellement disponibles et par un nouveau type d'électrode - faisceau transmodiolaire. Le modèle peut prendre en compte des courants ou des tensions en entrée à chaque électrode, ce qui permet de simuler le mode de retour commun ou multiple. Afin de valider les résultats de simulation et calibrer les paramètres du modèle, nous avons créé un système permettant d'acquérir des mesures in-situ et in-vitro. Les données enregistrées ont permis de valider le modèle combinant le modèle d'interface électrochimique et le modèle tridimensionnel de cochlée. / Computational models have been widely used to improve the knowledge of the current distribution behavior in cochlear implant stimulations, optimizing electrode designs and stimulation strategies. The existing models employed no or simple electrochemical interface models and took current intensity on the electrodes as input. Therefore they have difficulties in making time domain simulations and simulating the stimulation modes that have voltage constraints, such as the Common Ground and the Multi-Mode Grounding modes. In this PhD work, a new parametric surface mesh model of the cochlea has been developed. The shape of the model is controlled by a set of input parameters which can be tuned to fit the cochlear shape acquired from histological images, CT scans or existing cochlear mesh models. The symmetric boundary element method, which was implemented in OpenMEEG, has been applied on the model to simulate the current distribution of the cochlear implant stimulation. Using the parametric model, comparisons on the current field has been made between the existing electrode layouts and a new transmodiolar electrodes. The new model can take either current or voltage as input for each electrode to simulate the common ground and multi-mode grounding modes. By coupling the surface model with lumped capacitor and constant phase element models, time domain simulation of the stimulation waveform has also been achieved. To validate the simulation results and calibrate the parameters of the model, in-situ and in-vitro measurements have been carried out with self-made devices. The recorded data proved the effectiveness of combining lumped components with the surface model.

Page generated in 0.024 seconds