• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 210
  • 47
  • 16
  • Tagged with
  • 271
  • 97
  • 65
  • 61
  • 58
  • 39
  • 34
  • 34
  • 30
  • 30
  • 30
  • 28
  • 26
  • 26
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Sur une approche isogéométrique pour problèmes multi-champs couplés en grandes transformations / An isogeometric analysis approach for coupled multi-field problems at large strain

Zhang, Lei 05 December 2016 (has links)
La méthode isogéométrique (IGA) récemment proposée en tant que méthode numérique générique offre de réelles perspectives dans l’unification des modèles géométriques et computationnel. La méthode isogéométrique est intiment liée à la méthode des éléments finis (FEM) étant donné que la méthode est basée sur le même cadre variationnel. Cette méthode a montré dans de nombreuses circonstances de très bonne qualités numériques notamment avec des maillages grossiers (précision numérique, capacité à supporter de grandes déformations…). Notre objectif final dans ce travail est de fournir un environnement de base, numérique et logiciel, pour la simulation de problèmes à champs et physiques multiples pour des pièces élastomériques de type industriel. Dans ce contexte, les points numériques à développer pour l’IGA sont le traitement de l’incompressibilité et le caractère multi-champs du problème thermique dans la formulation de Galerkin. Ainsi dans ce travail nous proposons en premier, un paradigme objet de l’IGA intégré au sein d’une architecture orientée objet en Java, initialement con?ue pour résoudre des problèmes multi-champs couplés en transformations finies. L’approche proposée s’appuie pleinement sur le contexte variationnel existant dans le code dans le cadre des éléments finis pour réduire les développements pour MEF et IGA (une formulation développée en IGA tourne en MEF et vice versa). Dans un second temps, nous avons étudié le problème de l’incompressibilité pour notamment réduire le verrouillage numérique existant toujours sur l’IGA standard. Par un souci de simplicité, nous adoptons des formulations mixtes à 2 champs (déplacement/pression). Afin d’essayer de satisfaire la condition inf-sup en relachant la contrainte sur le déplacement, nous avons développé deux idées de la littérature (naturelle en NURBS) qui consiste à soit dupliquer une fois les n?uds intérieurs du patch des déplacements ou subdiviser les éléments du patch des déplacements. Nous avons étendu ce type d’éléments aux transformations finies. Enfin, et de manière originale, nous avons adopté la même stratégie pour les problèmes à 2-champs pour la thermomécanique. Différentes simulations à petites et grandes déformations confirment le potentiel de l’approche. Enfin, nous évaluons l’ensemble sur un modèle quasi-incompressible thermo-visco-élastique de type Zener sur des éprouvettes classiques dans un contexte physique complexe. / Recently proposed as a general purpose numerical method, the Isogeometric Analysis (IGA) offers great perspective to bridge the gap between CAD and CAE. The IGA is closely related to the finite element method (FEM) as the method is based on the same variational framework. Moreover, this method has shown in many circumstances to be have a better accuracy than the FEM (large mesh distortions…). Our final aim in this work is to simulate complex multiphysics problems for elastomers industrial parts. As matter of fact, the two main numerical issues in this context is the incompressibility/quasi-incompressibility of the material and the thermochemical coupling in Galerkin formulations. First, we propose, a programming paradigm of the IGA in an existing Java object-oriented hierarchy initially designed for solving multi-fields coupled problems at finite strains. We develop an approach that fully take benefit of the original architecture to reduce developments for both FEM and IGA (one problem developed in FEM can be run in IGA and vice versa). Second, we investigate volumetric locking issues persisting for low order NURBS element observed with standard displacement formulation as finite elements. To cure the problem, we adopt two-fields mixed formulation (displacement/pressure) for the sake of simplicity and target at assessing different discretizations in stability (inf-sup condition). The basic idea is to first to increase the internal knot’s multiplicity or to subdivide the patch for displacements. These ideas that are directly inspired from patches properties, have been found in the literature for the Stokes problem and extended to large strain in solid mechanics. The comparison between the two-fields mixed formulation and a strain projection method is lead at small and large strains. At last, we originally adopt a similar strategy for thermomechanical problem at small and large strains. In the context two-fields formulation, displacement/temperature, the LBB stability condition must be fulfilled to guaranty stability. Thus, we investigate the choices of patches for two-fields formulation displacement/temperature fields for IGA applied to thermoelasticity. Several numerical results for thermomechanical problems at small and finite strains, linear and nonlinear have been presented. At last, an incompressible viscous thermo-hyperelastic model is evaluated in the IGA framework with the proposed approach.
72

Contribution à l’identification des origines des déformations révélées au traitement thermique. Application à l’analyse d’une gamme de fabrication d’arbres à dentures de boites de vitesses. / Contribution to the Identification of Causes of Heat Treatment Distortions. Analysis of a Gearbox Shaft Manufacturing Process.

Husson, Rémi 10 July 2013 (has links)
Le traitement thermique est un procédé très largement utilisé dans l'industrie automobile et en particulier sur les pièces à dentures. Appliqué en général après usinage, il permet d'améliorer les propriétés mécaniques des pièces. Dans le même temps, plusieurs phénomènes physiques conduisent à des déformations, qui peuvent conduire au non-respect des tolérances dimensionnelles et géométriques. Ces déformations sont certes liées au traitement thermique mais également à l'ensemble de la gamme de fabrication en amont de celui-ci.L'objet de ce travail de recherche est d'améliorer d'une part la connaissance des phénomènes physiques mis en jeu au traitement thermique et d'autre part l'identification des déformations géométriques. Dans un premier temps, les déformations propres à chaque étape de fabrication sont identifiées. Puis au sein de la gamme, les sources d'origine dans la signature géométrique finale sont séparées. Une gamme de fabrication numérique illustre cette méthode.D'autre part, les « contraintes résiduelles » sont identifiées comme influentes sur l'évolution de la géométrie. Leur impact sur les déformations au traitement thermique est obtenu grâce à plusieurs campagnes d'essais sur site industriel. De cette façon, chaque caractéristique géométrique est reliée à une ou plusieurs étapes de fabrication en particulier. Ces résultats fournissent une aide au diagnostic des causes de non-conformités au traitement thermique. En parallèle, des modifications sur la gamme de fabrication sont proposées. / Heat treatment is widely used in automotive industry, especially in the case of gears. This process is habitually used after machining and increases mechanical properties of work pieces. In the meantime, several phenomena lead to distortions and sometimes to geometrical non-conformities. Distortions are due to heat treatment but also to previous manufacturing processes.The objective of this study is to improve both the understanding of physical phenomena occurring during heat treatment and the identification of distortion. First, distortions of each single manufacturing step are identified. Then, causes of final geometry amongst the overall process are ranked. A numerical manufacturing process is used as an example to illustrate this method.Secondly, residual stress influence on heat treatment distortion is revealed thanks to several industrial experiments. Thus, each single geometrical criterion is linked to a manufacturing step. These results provide a diagnosis tool helping to determine distortion causes. Moreover, evolutions on industrial process are proposed.
73

Modélisation du Comportement Thermomécanique des Polymères à mémoire de Forme / Modelisation of thermomechanical behavior of shape memory polymers

Arrieta escobar, Juan Sebastian 06 November 2014 (has links)
Un réseau acrylate amorphe a été fabriqué au laboratoire. Une caractérisation de ses propriétés mécaniques par des essais quasi-statiques et cycliques en traction uniaxiale à différentes températures a été effectuée. Puis, des essais qualifiant et quantifiant la propriété de mémoire de forme de ce matériau ont été menés en appliquant des cycles thermomécaniques de traction uniaxiale. Durant cette étude expérimentale, plusieurs paramètres d'essais ont été variés afin d'estimer leur influence sur la propriété de mémoire de forme. Enfin, afin d'étendre les applications mémoire de forme des réseaux polymères, deux études supplémentaires ont été conduites. La première vise à la réutilisation du matériau pour des applications mémoire de forme. La seconde étude vise à renforcer le matériau obtenant un matériau composite pour améliorer sa propriété de retour de forme sous contrainte (en retour de ‘'force'').Afin d'améliorer la conception d'applications des polymères à mémoire de forme, un modèle grandes déformations, combinant les propriétés viscoélastiques et l'équivalence temps--température du matériau, a été choisi pour prédire le comportement et la mémoire de forme du réseau acrylate et ses composites. Le modèle existant dans les librairies matériaux du code éléments finis Abaqus permet de simuler numériquement les cycles thermomécaniques appliqués expérimentalement de manière exacte. Les résultats issus des simulations ont montré une bonne représentation des mesures expérimentales, reproduisant les effets des paramètres du cycle de mémoire observés expérimentalement. Une analyse des paramètres du modèle est proposée mettant en évidence la sensibilité de la propriété de mémoire de forme aux propriétés d'équivalence temps-température mesurées expérimentalement. / A chemically crosslinked amorphous acrylate network has been prepared in the laboratory. Its mechanical properties were characterized by quasi-static and cyclic uniaxial tensile tests, while varying the temperature. The shape memory property of the polymer was recognized by the application of specific thermomechanical cycles in uniaxial tension (free-length and constrained-length recovery). During the experimental study, the thermomechanical cycle parameters were varied in order to study their influence on the shape memory behavior. Two additional studies were included to improve the potential applications of shape memory polymers. The first study targeted the use of the material shape memory property for subsequent shape memory cycles. The second study aimed at improving the material shape memory properties during fixed length heating (constrained-length recovery) by adding fillers .In order to improve the shape memory polymers application design, a large strain model, combining the material viscoleasticity and its time-temperature superposition property, was chosen to predict the shape memory behavior of the material. The model features, existing in the material behavior libraries of the finite element code Abaqus, allowed simulating numerically the experimental thermomechanical shape memory cycles. Results of the simulations showed good agreements when compared with the experimental results, reproducing the shape memory cycles influence to loading parameters. A parameter sensitivity analysis revealed the shape memory property dependence on the time-temperature superposition.
74

Déformations post-sismiques après le séisme de Maule (Mw8.8, Chili, 2010) : mesures GPS et modélisation en éléments finis pour une asthénosphère viscoélastique / Post-seismic deformation after the Maule earthquake (Mw8.8, Chili, 2010) : GPS measurements and finite element modeling for a viscoelastic asthenosphere

Klein, Emilie 10 December 2015 (has links)
L’étude des séismes géants de subduction présente un intérêt de premier ordre, car ils sontsuffisamment puissants pour exciter le manteau et déclencher sa relaxation visco-élastique. Cephénomène est caractérisé par des déformations à grande échelle spatiale (plusieurs milliers dekilomètres) et temporelle (plusieurs décennies). L’étude des déformations post-sismiques en surfacepar géodésie spatiale permet de contraindre les caractéristiques géométriques et rhéologiques del’interface de subduction, ouvrant ainsi la voie à l’étude du cycle sismique dans sa globalité.Le 27 février 2010 se produit le séisme de Mw 8.8, dans la région du Maule, au large du Chili. Lasubduction de la plaque Nazca sous la plaque continentale Sud-Américaine offre, pour la premièrefois, la possibilité de mesurer de manière continue et dense les déformations post-sismiques sur plusde 1500 km. Par ailleurs, plus de 10 ans de campagnes de mesures GPS, ont permis d’imager uncouplage très hétérogène tout au long de l’interface de subduction. L’imbrication alors visible entreles déformations post-sismiques et inter-sismiques, appuyée par l’étude de la sismicité historique,met ainsi en évidence les interactions inter-segments que seuls les modèles visco-élastiques de cyclesismique permettront de mieux comprendre.Cette thèse a été centrée autour de deux axes principaux, qui conduisent vers l’objectif finaldes modèles visco-élastiques de cycle sismique. Le premier et principal objectif est l’étude desdéformations post-sismiques du Maule. J’ai ainsi traité et analysé les cinq ans de données aprèsle séisme afin d’extraire le champ de déformation post-sismique. Ces données ont alors permis decontraindre les modèles visco-élastiques, grâce à la méthode des éléments finis. Un modèle combinéd’afterslip et de relaxation visco-élastique dans l’asthénosphère et dans un chenal à faible viscositétrès profond, permet ainsi d’expliquer le champ de déformation horizontal mais aussi verticalobservé. L’amplitude et la complexité des déformations en champ proche résulte de "l’afterslip",tandis que la relaxation dans le chenal permet de reproduire le très fort soulèvement de la Cordillèredes Andes. Enfin, la relaxation dans l’asthénosphère est responsable de l’extension sur plusieursmilliers de kilomètres des déformations post-sismiques. De plus, la continuité de l’effort de terrainet le traitement des données recueillies a permis de combler l’ultime gap de données. Il a ainsiété possible de déterminer un champ de vitesse inter-sismique continu sur la quasi totalité del’interface. Finalement, même si un modèle de cycle sismique à l’échelle de la subduction Chiliennen’a pas encore pu être réalisé, le modèle de post-sismique apporte déjà de nouveaux indices sur lesinteractions entre les différents segments de l’interface Chilienne, suite au dernier séisme. / The study of giant earthquakes on subduction zone represents a main interest. They are indeedsufficiently powerful to excite the mantle and trigger its viscoelastic relaxation, over a very largespatial (thousands of kilometers) and temporal (several decades) scale. Postseismic deformation,monitored by spatial geodesy, are a proxy to the geometrical and rheological characteristics of thesubduction interface, that will allow us to study the whole seismic cycle.On February 27th 2010 in the region of Maule, Chile, occurs the Mw 8.8 megathrust earthquake.Yet, the subduction of the Nazca plate beneath the continental South-American plate offers, forthe first time, the opportunity to measure continuously and densely the postseismic deformationfollowing the earthquake, over more than 1500 km. Otherwise, more than a decade of GPS repeatedmeasurements allowed to image a very heterogeneous coupling all along the Chilean interface. Thevisible imbrication between postseismic deformation and interseismic loading, supported by historicaland instrumental seismicity, highlights interactions between the segments. Viscoelastic modelsof seismic cycle appears to be the only way to understand these interactions.This PhD focused on two main axes, that will lead to the development of viscoelastic modelsof seismic cycle. The first part was dedicated to the study of postseismic deformation followingthe Maule earthquake. Therefore, we processed and analyzed very precisely GPS data in orderto extract the postseismic pattern and modeled it using the finite elements method. A combinedmodel of afterslip and viscoelastic relaxation in the asthenosphere and in a low viscosity channel,extending deep along the slab, can reproduce the complex deformation pattern, horizontaly and inverticaly. The amplitude and complexity of the near-field deformation result from aseismic slip onthe fault plane, while the great uplift of the Cordillera is reproduced by relaxation in the channel.The far field extension, up to 1600 km, entirely results from relaxation in the asthenosphere. Onthe other hand, the continuity of campaign measurements was the occasion to fill the ultimate gapof data, and thus estimate a continuous interseismic velocity field from the North of the Maulerupture zone up to North Chile. Finally, even if the final viscoelastic models of seismic cycle couldnot be processed yet, the present postseismic model already brings new insights on interactionsbetween the different segments of the Chilean interface, following the last Chilean earthquake.
75

Analyse statistique de la variabilité anatomique de l'hippocampe à partir de grandes populations / Statistical shape analysis of the anatomical variability of the human hippocampus in large populations.

Cury, Claire 12 February 2015 (has links)
L’analyse statistique de la forme de structures anatomiques est un enjeu essentiel pour de nombreuses applications: modélisation de la variabilité normale et pathologique, prédiction de paramètres cliniques et biologiques à partir de données anatomiques… Ces dernières années ont vu l’émergence de grandes bases de données en neuroimagerie, offrant une puissance statistique considérablement accrue. Cette thèse a pour thème l’étude statistique de la variabilité anatomique de l’hippocampe sur de grandes populations. Après un état de l’art, la première partie de la thèse porte sur l’étude d’une variante anatomique appelée inversion incomplète de l’hippocampe (IHI). Pour ce faire, nous avons mis au point une échelle de cotation de ces IHI. Elle a été ensuite appliquée à 2000 sujets sains et jeunes de la base de données IMAGEN. Les résultats ont permis de montrer que les IHI sont fréquentes chez les sujets sains, avec une prédominance à gauche. C’est la première fois que les IHI sont étudiés sur une telle population. La seconde partie de la thèse porte sur la mise au point d’une méthode d’analyse statistique de formes utilisant les grandes déformations difféomorphiques et les courants mathématiques, utilisable pour l’analyse de grandes populations. Nous avons en particulier introduit une nouvelle approche rapide pour construire des prototypes anatomiques. Cette approche a été validée sur 1000 sujets sains jeunes de la base de données IMAGEN et 294 sujets (sujets sains âgés et patients atteints de maladie d’Alzheimer) de la base ADNI. Les résultats montrent que la méthode permet de représenter la variabilité anatomique de l’hippocampe avec un nombre raisonnable de dimensions. / Statistical shape analysis of anatomical structures is a key challenge for many applications: modeling of the normal and pathological variability, prediction of clinical or biological parameters from anatomical data... Recent years have seen the emergence of large databases in neuro-imaging, potentially increasing the statistical power of new studies. This thesis is about the statistical analysis of the anatomical variability of hippocampi in large populations. After a state of the art, the first part of the thesis focuses on the study of an anatomical variant named Incomplete Hippocampal Inversion (IHI). We developed a new robust scale for IHI assessments. We then applied the evaluation to 2000 young healthy subjects from the European database IMAGEN. Results show that IHI are frequent on healthy population, with a left side predominance. This is the first time that IHI are studied on a large database composed of healthy subjects. The second part of this thesis develops a method for the statistical analysis of shapes based on Large Diffeomorphic Deformations Metric Mapping and mathematical currents, applicable for the analysis of large datasets. In particular we have introduced a new fast approach for the estimation of anatomical templates. This approach has been validated on 1000 young healthy subjects of the IMAGEN database and on 294 subjects from the ADNI database (healthy aging subjects and patients with Alzheimer disease). Results show that the method allows the modeling of the anatomical variability of hippocampi with a reasonable number of dimensions.
76

Verre feuilleté : rupture dynamique d'adhésion / Laminated glass : dynamic rupture of adhesion

Elzière, Paul 29 September 2016 (has links)
Il y a plus d'un siècle, les verres feuilletés ont été découverts. Ces structures sont formées d'un intercalaire polymère pris entre deux plis de verre. Cet intercalaire améliore considérablement les performances à l'impact de l'assemblage. Lorsque le verre se brise, la délamination et l'étirement de l'intercalaire dissipent une grande quantité d'énergie. Les personnes sont protégées de l'objet impactant qui ne traverse pas le verre et des projections potentiellement dangereuses. Nous avons identifié et caractérisé les mécanismes de dissipation d'énergie associés au décollement de l'intercalaire et à l'étirement qui s'en suit. Des tests de traction uniaxiale et des mesures de biréfringence ont permis de relier le comportement de l'intercalaire à sa structure chimique. Les différents mécanismes dissipatifs du comportement de ce polymère ont été identifiés et décris dans un modèle rhéologique. Nous avons utilisé une expérience modèle afin d'établir les sollicitations subies par l'intercalaire lors de sa délamination du verre. Cette expérience consiste en un essai de traction uniaxiale sur un verre feuilleté pré-entaillé. Nous avons montré l'existence d'un régime de délamination stationnaire dans une gamme limitée de température et de vitesse de déplacement imposée. Dans ces conditions stationnaires, nous avons identifié deux zones de dissipation d'énergie. La corrélation digitale d'image a permis de quantifier la dynamique de déformation de l'intercalaire en aval du front et d'expliquer la grande quantité d'énergie dissipée. Enfin un modèle éléments finis a confirmé les observations expérimentales et permis d'explorer le voisinage du front de délamination. / Laminated glass has been discovered more than a century ago. It is composed of a polymeric interlayer sandwiched in-between two glass plies. This interlayer dramatically enhances the performance during impact. Even if the glass breaks, partial delamination and stretching of the interlayer will dissipate a large amount of energy. This dissipation will protect people from the impacting object while the glass splinters will stick on the interlayer, preventing harmful projections. I have identified and characterized the dissipation mechanisms associated with the interlayer rheology and its delamination from glass.Using uniaxial traction tests combined with photoelastic measurements, a relationship between the polymer structure and its mechanical behavior has been provided. The different dissipating mechanisms of the interlayer rheology have been identified in a rheological model. To understand how the interlayer mechanical behavior is involved during the lost of adhesion at the glass interface, a model delamination experiment has been setup. This test consists in a uniaxial traction on a pre-cracked laminated glass sample. In a certain range of applied velocities and temperatures, a steady state delamination regime has been observed. In these steady state conditions, two zones of dissipation have been identified. Digital image correlation has been used to quantify the stretching dynamics of the interlayer ahead of the delamination fronts and to explain the large dissipation observed during impact. Finally a finite element model has been developed to confirm experimental observations and to explore the close vicinity of the delamination fronts.
77

Mesure de déformation par CBED : développement et application d'une approche multi-clichés / Strain measurement by CBED : development and application of a multiple patterns approach

Brunetti, Guillaume 18 December 2009 (has links)
La connaissance des déformations et des contraintes est importante pour une meilleure compréhension des propriétés des matériaux. Plusieurs techniques expérimentales sont disponibles (XRD, Raman …), mais une seule est capable de déterminer les déformations à une échelle microscopique : la diffraction électronique en faisceau convergent (CBED : Convergent Beam Electron Diffraction). Cette technique est connue pour sa haute résolution spatiale (de l'ordre de quelques nanomètres) qui provient de son utilisation dans un Microscope Électronique en Transmission (MET). Les clichés de diffraction en faisceau convergent sont constitués de lignes de HOLZ dont la localisation dépend de la valeur des paramètres cristallins ou de la déformation du matériau. La comparaison de la position des lignes entre un cliché expérimental et un cliché simulé permet la détermination des paramètres cristallins. Dans ce travail, nous avons appliqué une nouvelle approche pour la détermination des paramètres cristallins. Elle utilise l'équation algébrique des "K-lines" et offre la possibilité de travailler simultanément avec plusieurs clichés de diffraction. Nous avons quantifié l'incertitude associée à l'approche KLEBS. Les causes de l'incertitude ont été présentées et nous avons proposé une approche statistique (multi-clichés) pour réduire sa valeur. Ensuite, l'approche multi-clichés a été appliquée à l'étude des superalliages monocristallins à base nickel, et une nouvelle méthode a été proposée pour la détermination du désaccord paramétrique. La dernière partie de ce travail traite de l'étude des hétérogénéités de déformation dans un matériau déformé plastiquement / The knowledge of strains and stresses is important for a better understanding of the materials properties. Several experimental techniques are available (XRD, Raman ...), but only one allows the determination of the strain at a microscopic scale: the Convergent Beam Electron Diffraction (CBED). This technique is known for its high spatial resolution (of a few nanometers), which comes from its use in a Transmission Electronic Microscope (TEM). The diffraction patterns acquired with a convergent beam are constituted of HOLZ lines whose localization depends on the values of the lattice parameters or strain of the material. The comparison of the lines position between an experimental and a simulated pattern allows the determination of the lattice parameters. In this work, we have applied a new approach for the lattice parameters determination. It is based on the algebraic equation of "K-lines" and enables to work simultaneously on several diffraction patterns. We have quantified the uncertainty linked to the KLEBS approach. The causes of the uncertainty have been presented and we have proposed a statistical approach (multiple patterns) to reduce its value. Then, the multiple patterns approach has been applied to the study of the single crystal nickel based superalloys, and a new method for the misfit determination has been proposed. The last part of this work deals with the study of the strain heterogeneities in a material plastically strained
78

Coopération entre segmentation et mouvement pour l'estimation conjointe des déplacements pariétaux et des déformations myocardiaques / cooperation between segmentation and movement for the joint estimation of the parietal displacements and myocardiac deformations

Tuyisenge, Viateur 08 December 2014 (has links)
Pas de résumé disponible / The work done in this thesis is related to the project 3DStrain the overall objective of which is to develop a generic framework for the parietal and regional tracking of the left ventricle and to adapt it the 3D + t cardiac imaging modalities used in clinical routine (3D ultrasound, SPECT, cine MRI). We worked on the parietal motion and myocardial deformation. We made the state-of-the-art on motion estimation approaches in general and on methods applied to imaging modalities in clinical practice to quantify myocardial deformation taking into account their specificities and limitations. We focused on tracking methods that optimize the similarity between the intensities between consecutive images of a sequence to estimate the spatial velocity field. They are based on the assumption of the invariance of image gray level (or optical flow) and regularization terms are used to solve the aperture problem. We proposed a regularization term well suited to physical and physiological properties of myocardial motion. The advantage of the proposed approach relies on its flexibility to estimate the dense field of myocardial motion on image sequences over the cardiac cycle. Motion is estimated while preserving myocardial wall discontinuities. However, the data similarity term used in our method is based only on the intensity of the image. It properly estimates the displacement field especially in the radial direction as the movement of circumferential twist is hardly visible on cine MRI in short axis view, the data we used for performing the experiments. To make the estimation more robust, we proposed a dynamic evolution model for the cardiac contraction and relaxation to introduce the temporal constraint ofthe dynamics of the heart. This model helps to estimate not only the dense field of myocardial displacement, but also other parameters of myocardial contractility (the contraction phase and asymmetry between systole and diastole) in variational data assimilation formalism. Automatic estimation of deformation and myocardial contractibility (the strain, phase and asymmetry) was validated against the cardiological and radiological expertise (Dr Elisabeth Coupez and Dr Lucie Cassagnes, CHU Clermont-Ferrand) through semi-quantitative scores of contraction called Wall Motion Score (WMS) and Wall Thickening Index (WTI). The proposed method provides promising results for both motion estimation results and the diagnosis indices for evaluation of myocardial dyskinesia. In order to gain in robustness and accuracy, it is necessary to perform the measurement of strain and indices of myocardial contraction precisely inside endocardial and epicardial walls. Therefore, we conducted a collaborative work with Kevin Bianchi, another PhD student on the project 3DStrain and we proposed a method of coupling of myocardial segmentation by deformable models and estimation of myocardial motion in a variational data assimilation framework.
79

Modélisation des problèmes de grandes déformations multi-domaines par une approche Eulérienne monolithique massivement parallèle / Modelling multi-domain large deformation problems using an Eulerian monolithic approach in a massively parallel environment

El Haddad, Fadi 29 May 2015 (has links)
La modélisation des problèmes multi-domaine est abordée dans un cadre purement Eulérien. Un maillage unique, ne représentant plus la matière, est utilisé. Les différentes frontières et leur évolution sont décrites via des outils numériques tels que la méthode Level Set. Les caractéristiques locales de chaque sous domaines sont déterminées par des lois de mélange.Ce travail est une des premières tentations appliquant une approche Eulérienne pour modéliser de problèmes de grandes déformations. Dans un premier temps, la capacité de l'approche est testée afin de déterminer les développements nécessaires.Le frottement entre les différents objets est géré par un lubrifiant ajouté dans une couche limite. Combinée avec une technique d'identification, une nouvelle loi de mélange quadratique est introduite pour décrire la viscosité du lubrifiant. Des comparaisons ont été effectuées avec Forge® et les résultats sont trouvés satisfaisants. Pour traiter le contact entre les différents objets, un solveur directionnel a été développé. Malgré que les résultats soient intéressants, il reste le sujet de nouvelles améliorations. La scalabilité de l'approche dans un environnement massivement parallèle est testée aussi. Plusieurs recommandations ont été proposées pour s'assurer d'une performance optimale. La technique du maillage unique permet d'obtenir une très bonne scalabilité. L'efficacité du parallélisme ne dépend que de la partition d'un seul maillage (contrairement aux méthodes Lagrangiennes). La méthode proposée présente des capacités indéniables mais reste loin d'être complète. Des pistes d'amélioration sont proposées en conséquence. / Modeling of multi-domain problems is addressed in a Purely Eulerian framework. A single mesh is used all over the domain. The evolution of the different interacting bodies is described using numerical tools such as the Level Set method. The characteristics of the subdomains, considered as heterogeneities in the mesh, are determined using mixture laws.This work is one of the first attempts applying fully Eulerian Approach to Model large deformation problems. Therefore, the capacity of this approach is tested to determine necessary developments. The friction between the different objects is managed by adding a boundary layer implying the presence of a lubricant. Combined with an identification technique, a new quadratic mixture Law is introduced to determine the lubricant viscosity. Comparisons have been performed with Forge® and results were found satisfactory. To treat the contact problem between the different objects, a directional solver was developed. Despite the interesting results, it remains the topic of further improvements. The scalability of the approach in a massively parallel environment is tested as well. Several recommendations were proposed to ensure an optimal performance. The technique of a single mesh guarantees a very good scalability since the efficiency of parallelism depends of the partition of a single mesh (unlike the Lagrangian Methods). The proposed method presents undeniable capacities but remains far from being complete. Ideas for future Improvements are proposed accordingly.
80

Description de contenu vidéo : mouvements et élasticité temporelle / Description of video content : motion and temporal elasticity

Blanc, Katy 17 December 2018 (has links)
La reconnaissance en vidéo atteint de meilleures performances ces dernières années, notamment grâce à l'amélioration des réseaux de neurones profonds sur les images. Pourtant l'explosion des taux de reconnaissance en images ne s'est pas directement répercuté sur les taux en reconnaissance vidéo. Cela est dû à cette dimension supplémentaire qu'est le temps et dont il est encore difficile d'extraire une description robuste. Les réseaux de neurones récurrents introduisent une temporalité mais ils ont une mémoire limitée dans le temps. Les méthodes de description vidéo de l'état de l'art gèrent généralement le temps comme une dimension spatiale supplémentaire et la combinaison de plusieurs méthodes de description vidéo apportent les meilleures performances actuelles. Or la dimension temporelle possède une élasticité propre, différente des dimensions spatiales. En effet, la dimension temporelle peut être déformée localement : une dilatation partielle provoquera un ralentissement visuel de la vidéo sans en changer la compréhension, à l'inverse d'une dilatation spatiale sur une image qui modifierait les proportions des objets. On peut donc espérer améliorer encore la classification de contenu vidéo par la conception d'une description invariante aux changements de vitesse. Cette thèse porte sur la problématique d'une description robuste de vidéo en considérant l'élasticité de la dimension temporelle sous trois angles différents. Dans un premier temps, nous avons décrit localement et explicitement les informations de mouvements. Des singularités sont détectées sur le flot optique, puis traquées et agrégées dans une chaîne pour décrire des portions de vidéos. Nous avons utilisé cette description sur du contenu sportif. Puis nous avons extrait des descriptions globales implicites grâce aux décompositions tensorielles. Les tenseurs permettent de considérer une vidéo comme un tableau de données multi-dimensionnelles. Les descriptions extraites sont évaluées dans une tache de classification. Pour finir, nous avons étudié les méthodes de normalisation de la dimension temporelle. Nous avons utilisé les méthodes de déformations temporelles dynamiques des séquences. Nous avons montré que cette normalisation aide à une meilleure classification. / Video recognition gain in performance during the last years, especially due to the improvement in the deep learning performances on images. However the jump in recognition rate on images does not directly impact the recognition rate on videos. This limitation is certainly due to this added dimension, the time, on which a robust description is still hard to extract. The recurrent neural networks introduce temporality but they have a limited memory. State of the art methods for video description usually handle time as a spatial dimension and the combination of video description methods reach the current best accuracies. However the temporal dimension has its own elasticity, different from the spatial dimensions. Indeed, the temporal dimension of a video can be locally deformed: a partial dilatation produces a visual slow down during the video, without changing the understanding, in contrast with a spatial dilatation on an image which will modify the proportions of the shown objects. We can thus expect to improve the video content classification by creating an invariant description to these speed changes. This thesis focus on the question of a robust video description considering the elasticity of the temporal dimension under three different angles. First, we have locally and explicitly described the motion content. Singularities are detected in the optical flow, then tracked along the time axis and organized in chain to describe video part. We have used this description on sport content. Then we have extracted global and implicit description thanks to tensor decompositions. Tensor enables to consider a video as a multi-dimensional data table. The extracted description are evaluated in a classification task. Finally, we have studied speed normalization method thanks to Dynamical Time Warping methods on series. We have showed that this normalization improve the classification rates.

Page generated in 0.1027 seconds