• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 187
  • 57
  • 24
  • 1
  • Tagged with
  • 269
  • 92
  • 86
  • 71
  • 55
  • 52
  • 50
  • 49
  • 30
  • 30
  • 30
  • 27
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Description de contenu vidéo : mouvements et élasticité temporelle / Description of video content : motion and temporal elasticity

Blanc, Katy 17 December 2018 (has links)
La reconnaissance en vidéo atteint de meilleures performances ces dernières années, notamment grâce à l'amélioration des réseaux de neurones profonds sur les images. Pourtant l'explosion des taux de reconnaissance en images ne s'est pas directement répercuté sur les taux en reconnaissance vidéo. Cela est dû à cette dimension supplémentaire qu'est le temps et dont il est encore difficile d'extraire une description robuste. Les réseaux de neurones récurrents introduisent une temporalité mais ils ont une mémoire limitée dans le temps. Les méthodes de description vidéo de l'état de l'art gèrent généralement le temps comme une dimension spatiale supplémentaire et la combinaison de plusieurs méthodes de description vidéo apportent les meilleures performances actuelles. Or la dimension temporelle possède une élasticité propre, différente des dimensions spatiales. En effet, la dimension temporelle peut être déformée localement : une dilatation partielle provoquera un ralentissement visuel de la vidéo sans en changer la compréhension, à l'inverse d'une dilatation spatiale sur une image qui modifierait les proportions des objets. On peut donc espérer améliorer encore la classification de contenu vidéo par la conception d'une description invariante aux changements de vitesse. Cette thèse porte sur la problématique d'une description robuste de vidéo en considérant l'élasticité de la dimension temporelle sous trois angles différents. Dans un premier temps, nous avons décrit localement et explicitement les informations de mouvements. Des singularités sont détectées sur le flot optique, puis traquées et agrégées dans une chaîne pour décrire des portions de vidéos. Nous avons utilisé cette description sur du contenu sportif. Puis nous avons extrait des descriptions globales implicites grâce aux décompositions tensorielles. Les tenseurs permettent de considérer une vidéo comme un tableau de données multi-dimensionnelles. Les descriptions extraites sont évaluées dans une tache de classification. Pour finir, nous avons étudié les méthodes de normalisation de la dimension temporelle. Nous avons utilisé les méthodes de déformations temporelles dynamiques des séquences. Nous avons montré que cette normalisation aide à une meilleure classification. / Video recognition gain in performance during the last years, especially due to the improvement in the deep learning performances on images. However the jump in recognition rate on images does not directly impact the recognition rate on videos. This limitation is certainly due to this added dimension, the time, on which a robust description is still hard to extract. The recurrent neural networks introduce temporality but they have a limited memory. State of the art methods for video description usually handle time as a spatial dimension and the combination of video description methods reach the current best accuracies. However the temporal dimension has its own elasticity, different from the spatial dimensions. Indeed, the temporal dimension of a video can be locally deformed: a partial dilatation produces a visual slow down during the video, without changing the understanding, in contrast with a spatial dilatation on an image which will modify the proportions of the shown objects. We can thus expect to improve the video content classification by creating an invariant description to these speed changes. This thesis focus on the question of a robust video description considering the elasticity of the temporal dimension under three different angles. First, we have locally and explicitly described the motion content. Singularities are detected in the optical flow, then tracked along the time axis and organized in chain to describe video part. We have used this description on sport content. Then we have extracted global and implicit description thanks to tensor decompositions. Tensor enables to consider a video as a multi-dimensional data table. The extracted description are evaluated in a classification task. Finally, we have studied speed normalization method thanks to Dynamical Time Warping methods on series. We have showed that this normalization improve the classification rates.
72

Cohérence de données répliquées partagées adaptative pour architectures de stockage à fort degré d’élasticité. / Adaptive Consistency Protocols for Replicated Data in Modern Storage Systems with a High Degree of Elasticity

Kumar, Sathiya Prabhu 15 March 2016 (has links)
Les principales contributions de cette thèse sont au nombre de trois. La première partie de cette thèse concerne le développement d’un nouveau protocole de réplication nommé LibRe, permettant de limiter le nombre de lectures obsolètes dans un système de stockage distribué. LibRe est un acronyme signifiant "Library for Replication". Le principal objectif de LibRe est d’assurer la cohérence des données en contactant un minimum de répliques durant les opérations de lectures où d’écritures. Dans ce protocole, lors d’une opération d’écriture, chaque réplique met à jour un registre (la "librairie"), de manière asynchrone, avec l’identifiant de version de la donnée modifiée. Lors des opérations de lecture, la requête est transférée au réplica le plus approprié en fonction de l’information figurant dans le registre. Ce mécanisme permet de limiter le nombre de lectures obsolétes. L’évaluation de la cohérence d’un système reste un problème difficile à resoudre, que ce soit par simulation ou par évaluation en conditions réelles. Par conséquent nous avons développé un simulateur appelé Simizer, qui permet d’évaluer et de comparer la performance de différents protocoles de cohérence. Le système d’évaluation de bases de données YCSB a aussi été étendu pour évaluer l’échange entre cohérence et latence dans les systèmes de stockage modernes. Le code du simulateur et les modifications apportées à l’outil YCSB sont disponibles sous licence libre.Bien que les systèmes de bases de données modernes adaptent les garanties de cohérence à la demande de l’utilisateur, anticiper le niveau de cohérence requis pour chaque opération reste difficile pour un développeur d’application. La deuxième contribution de cette thèse cherche à résoudre ce problème en permettant à la base de données de remplacer le niveau de cohérence défini par défaut par d’autres règles définies à partir d’informations externes. Ces informations peuvent être fournies par l’administrateur ou un service extérieur. Dans cette thèse, nous validons ce modèle à l’aide d’une implémentation au sein du système de bases de données distribué Cassandra. La troisième contribution de cette thèse concerne la résolution des conflits de mise à jour. La résolution de ce type de conflits nécessite de retenir toutes les valeurs possibles d’un objet pour permettre la résolution du conflit grâce à une connaissance spécifique côté client. Ceci implique des coûts supplémentaires en termes de débit et de latence. Dans cette thèse nous discutons le besoin et la conception d’un nouveau type d’objet distribué, le registre à priorité, qui utilise une stratégie de détection et de résolution de conflits spécifique au domaine, et l’implante côté serveur. Notre approche utilise la notion d’ordre de remplacement spécifique. Nous montrons qu’un type de donnée paramètrée par un tel ordre peut fournir une solution efficace pour les applications demandant des solutions spécifiques à la résolution des conflits. Nous décrivons aussi l’implémentation d’une preuve de concept au sein de Cassandra. / The main contributions of this thesis are three folds. The first contribution of the thesis focuses on an efficient way to control stale reads in modern database systems with the help of a new consistency protocol called LibRe. LibRe is an acronym for Library for Replication. The main goal of the LibRe protocol is to ensure data consistency by contacting a minimum number of replica nodes during read and write operations with the help of a library information. According to the protocol, during write operations each replica node updates a registry (library) asynchronously with the recent version identifier of the updated data. Forwarding the read requests to a right replica node referring the registry information helps to control stale reads during read operations. Evaluation of data consistency remains challenging both via simulation as well as in a real world setup. Hence, we implemented a new simulation toolkit called Simizer that helps to evaluate the performance of different consistency policies in a fast and efficient way. We also extended an existing benchmark tool YCSB that helps to evaluate the consistency-latency tradeoff offered by modern database systems. The codebase of the simulator and the extended YCSB are made open-source for public access. The performance of the LibRe protocol is validated both via simulation as well as in a real setup with the help of extended YCSB.Although the modern database systems adapt the consistency guarantees of the system per query basis, anticipating the consistency level of an application query in advance during application development time remains challenging for the application developers. In order to overcome this limitation, the second contribution of the thesis focuses on enabling the database system to override the application-defined consistency options during run time with the help of an external input. The external input could be given by a data administrator or by an external service. The thesis validates the proposed model with the help of a prototype implementation inside the Cassandra distributed storage system.The third contribution of the thesis focuses on resolving update conflicts. Resolving update conflicts often involve maintaining all possible values and perform the resolution via domain-specific knowledge at the client side. This involves additional cost in terms of network bandwidth and latency, and considerable complexity. In this thesis, we discuss the motivation and design of a novel data type called priority register that implements a domain-specific conflict detection and resolution scheme directly at the database side, while leaving open the option of additional reconciliation at the application level. Our approach uses the notion of an application-defined replacement ordering and we show that a data type parameterized by such an order can provide an efficient solution for applications that demand domain-specific conflict resolution. We also describe the proof of concept implementation of the priority register inside Cassandra. The conclusion and perspectives of the thesis work are summarized at the end.
73

Inferring forces from geometry in biology / Déduire les forces à partir de la géométrie en biologie

Barberi, Luca 21 November 2019 (has links)
Des forces intermoléculaires sur lesquelles nous avons peu de connaissances préalables sont souvent essentielles à la stabilité et à l'évolution des assemblages biologiques. Dans cette thèse, nous nous concentrons sur deux de ces forces qui sont impliquées de façon critique dans la déformation soit des biopolymères, soit des membranes. Nous déduisons ces forces en conciliant la géométrie d'une telle déformation avec des modèles mécaniques simples. Dans la première partie de la thèse, nous examinons la force d'attraction entre les molécules d'ADN médiées par des cations multivalents. Cette attraction est nécessaire pour compenser la rigidité de l'ADN lors du confinement de grandes quantités d'ADN dans des environnements relativement petits, tels que les noyaux des spermatozoïdes. In vitro, les cations multivalents causent la condensation de l'ADN en faisceaux toroïdaux denses. Grâce à des données sur la géométrie de ces faisceaux, nous pouvons étudier la compétition entre les forces attractives et la rigidité de l'ADN. Nous inférons telles forces et proposons que la courbure toroïdale affaiblisse l'adhésion entre les molécules d'ADN. Dans la deuxième partie de la thèse, nous nous intéressons à la force de liaison d'un complexe protéique de remodelage membranaire, ESCRT-III, aux membranes cellulaires. Les protéines ESCRT-III s'assemblent en polymères qui remodèlent la membrane au cours de nombreux processus cellulaires, allant du bourgeonnement du VIH à la cytokinèse. Le mécanisme par lequel les polymères ESCRT-III déforment les membranes n'est toujours pas clair. In vitro, les polymères ESCRT-III peuvent transformer des vésicules membranaires sphériques en tubes hélicoïdaux. Nous proposons que les tubes hélicoïdaux résultent du positionnement particulier des sites de liaison membranaire sur la surface des polymères ESCRT-III. De plus, nous déduisons la force de liaison entre les monomères ESCRT-III et la membrane à partir de la géométrie des tubes hélicoïdaux. / Inter-molecular forces on which we have poor prior knowledge are often essential for the stability and evolution of biological assemblies. In this thesis, we focus on two such forces that are critically involved in the deformation of either biopolymers or membranes. We infer these forces by reconciling the geometry of such deformation with simple mechanical models. In the first part of the thesis, we consider the attractive force between DNA molecules mediated by multivalent cations. This attraction is required to compensate DNA bending rigidity when packaging large quantities of DNA in comparatively small environments, such as the nuclei of sperm cells. In vitro, multivalent cations drive DNA condensation into dense toroidal bundles. Geometrical data on DNA toroidal bundles give access to the competition between inter-helical attraction and DNA bending rigidity. From these data, we infer inter-helical forces and argue that the toroid curvature weakens the adhesion between DNA molecules. In the second part of the thesis, we turn to the binding force of a membrane remodeling protein complex, ESCRT-III, to cellular membranes. ESCRT-III proteins assemble into membrane-remodeling polymers during many cellular processes, ranging from HIV budding to cytokinesis. The mechanism by which ESCRT-III polymers deform membranes is still unclear. In vitro, ESCRT-III polymers can reshape spherical membrane vesicles into helical tubes. We argue that helical tubes result from the peculiar positioning of membrane-binding sites on the surface of ESCRT-III polymers. Furthermore, we infer the binding force between ESCRT-III and membrane from the geometry of helical tubes.
74

Frictions financières : théories et évidences

Manadir, Abdellah 24 April 2018 (has links)
Cette thèse évalue la contribution de deux types de frictions financières à améliorer la capacité des modèles dynamiques stochastiques d'équilibre général (DSGE) de type néo-keynésien à répliquer les cycles économiques, et la capacité des modèles hybrides (DSGE-VAR) à mieux prévoir les aggrégats macroéconomiques. Motivé par un problème de Costly State Verification à la Bernanke et al. [1999] affectant les contrats de dette, le premier type de friction financière induit un écart entre le rendement attendu du capital et le taux sans risque, écart qui dépend du ratio de levier entrepreneurial. Le deuxième type de friction, justifié par un problème de Costly Enforcement à la Gertler and Karadi [2011], induit quant à lui un écart entre le rendement attendu du capital et le taux sans risque qui dépend du changement dans le ratio de levier. Le premier chapitre de la thèse estime trois versions du modèle macroéconomique de Smets and Wouters [2003, 2007] à l'aide de l'approche bayésienne. La première version, utilisée comme point de comparaison, considère les marchés financiers comme un voile et ne contient pas de friction financière. La deuxième version incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre utilise ensuite les résultats d'estimation pour répondre aux deux questions suivantes : (i) Est-ce que les modèles avec frictions financières sont plus compatibles avec les données macroéconomiques des États-Unis que ceux qui font abstraction de ces frictions ? Si c'est le cas, (ii) quel type de friction financière est plus compatible avec ces mêmes données ? Les résultats d'estimation mettent en évidence les points suivants. Premièrement, l'ajout des frictions financières améliore l'ajustement du modèle néo-keynésien aux données. Ces améliorations semblent être marginales et non robustes, dans le cas du problème de Costly State Verification, tandis qu'elles sont substantielles et robustes dans le cas du problème de Costly Enforcement. Deuxièment, estimer l'élasticité de la prime du risque au ratio de levier entrepreneurial, plutôt que la calibrer à une valeur commune utilisée dans la littérature, induit une amélioration subtancielle de la performance du modèle à la Bernanke et al. [1999]. Ceci suggère que cette élasticité devrait être révisée (à la baisse) par rapport à la position à priori prise dans la littérature. Le deuxième chapitre de la thèse estime trois versions du modèle de Smets and Wouters [2003, 2007] à l'aide de la méthodologie bayésienne, et ceci pour l'économie des États-Unis et pour celle de la zone Euro. La première version, servant du modèle de base, considère les marchés financiers comme un voile et n'incorpore pas de friction financière. La deuxième version lève le voile sur les marchés financiers et incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Les trois versions accordent une attention particulière aux tendances de long terme reflétées dans les données et considèrent donc un processus déterministe de la technologie, qui accroit la productivité des heures de travail. Par la suite, ce chapitre emploie les résultats d'estimation pour répondre aux deux questions suivantes. (i) Est-ce que l'importance des frictions financières est différente dans l'économie des États-Unis et dans celle de la zone Euro ? Si c'est le cas, (ii) quels facteurs peuvent expliquer cette différence ? Les résultats obtenus mentionnent les points suivants. D'abord, la friction de type Costly State Verification à la Bernanke et al. [1999] est plus importante dans l'économie de la zone euro que dans celle des États-Unis. Par contre, la friction de type Costly Enforcement à la Gertler and Karadi [2011] n'est pas importante ni dans l'économie de la zone Euro, ni dans l'économie des États-Unis. Ensuite, l'importance relativement élevée de la friction dans l'économie de la zone Euro peut être expliquée par l'élasticité élevée de la prime du risque au ratio de levier dans cette économie. Finalement, le troisième chapitre de la thèse développe trois types d'information à priori pour un modèle vectoriel auto-régressif, et ce à partir d'un modèle néo-keynésien DSGE sans friction financière, d'un modèle incorporant la friction de type Costly State Verification à la Bernanke et al. [1999] et d'un modèle incluant la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre compare ensuite la performance prévisionnelle des trois modèles hybrides (DSGE-VAR) pour répondre à la question suivante : Jusqu'à quel point l'introduction des structures (frictions) financières améliore-t-elle les prévisions d'un modèle hybride DSGEVAR? Les résultats obtenus indiquent que les modèles DSGE-VAR incluant des frictions financières ne semblent pas performer mieux que les modèles DSGE-VAR standard. / This thesis assesses the extent to which two types of financial frictions contribute to the ability of New-Keynesian-type-stochastic dynamic general equilibrium models (DSGE) to reproduce business cycles and the ability of hybrid models (DSGE-VAR) to forecast macroeconomic aggregates. The first type of financial friction originates from a problem of Costly State Verification à la Bernanke et al. [1999] and appears in debt contracts. This type of friction implies a wedge between the expected return on capital and the risk-free rate that depends on entrepreneurial leverage, whereas the wedge is absent in models with no frictions. The second type of friction results from a problem of Costly Enforcement à la Gertler and Karadi [2011], which also induces a wedge between the expected return on capital and the risk-free rate, that is now determined by the change in entrepreneurial leverage. The first chapter of thesis estimates three versions of Smets and Wouters [2003, 2007] using a Bayesian approach. Used as a benchmark, the first version considers financial markets as a veil and thus contains no financial friction. The second version incorporates the Costly State Verification-type-friction à la Bernanke et al. [1999], while the third version includes the Costly Enforcement-type-friction à la Gertler and Karadi [2011]. The estimation results are used to answer to following questions: (i) Are models including financial frictions more compatible with U.S. macroeconomic data than those with no frictions? (ii) which types of financial friction are preferred by the data? Our findings indicate that adding financial frictions improves the New-Keynesian model's fit to data, in terms of data marginal density. In the case of Costly Enforcement problem, these improvements are both substantial and robust, while they are marginal and not robust in the case of the Costly State Verification problem. Second, estimating the risk premium elasticity to entrepreneurial leverage, rather than calibrating it to values commonly used in the literature, helps the Bernanke et al. [1999] model version to perform more well. This finding suggests that this elasticity should be revised (downwards), relative to the prior belief established in the literature. The second chapter estimates three versions of Smets and Wouters [2003, 2007] via the Bayesian methodology for both the U.S. and Euro economies. The first version serves as a basic model and considers financial markets as veil, thereby contains no financial frictions. The second version includes a Costly State Verification-type problem à la Bernanke et al. [1999], while the third one incorporates a Costly Enforcement problem à la Gertler and Karadi [2011]. These three versions pay particular attention to long term trends that are present in data and thus incorporate a labour-augmenting technology process. The chapter then uses estimation results to answer to the following questions: (i) Is the importance of financial frictions different in the U.S. economy and in the Euro economy? Then, (ii) which factors can explain this difference? The main results are: First, the Costly State Verification-type-friction à la Bernanke et al. [1999] is more important in the Euro economy than in the U.S. economy, while the Costly Enforcement-type-friction à la Gertler and Karadi [2011] doesn't appear important to the both economies. Second, the relative importance of financial frictions in the Euro area can be explained by the high estimate of the risk premium elasticity to the leverage in the Euro economy. The third chapter of thesis develops three types of prior information for a VAR model, from a New-Keynesian model with no financial friction, a model incorporating a friction of Costly state Verification à la Bernanke et al. [1999] and a model including a friction of Costly Enforcement à la Gertler and Karadi [2011]. This last chapter then compares the three hybrid models (DSGE-VAR) via the root mean squared forecast errors, in order to answer to the following question: To which extent can the presence of financial structures (frictions) improve the forecasting ability of hybrid model DSGE-VAR? In terms of out-sample forecasts, the results show that the hybrid models with no financial frictions perform as well as those with frictions.
75

Méthode lagrangienne actualisée pour des problèmes hyperélastiques en très grandes déformations

Léger, Sophie 20 April 2018 (has links)
Simuler numériquement de façon précise les matériaux hyperélastiques en grandes déformations par la méthode des éléments finis est encore un problème difficile. Même avec l’aide d’un maillage très raffiné, la formulation lagrangienne totale peut mener à des problèmes de convergence en raison de la dégénérescence des éléments du maillage. L’estimation d’erreur et le remaillage adaptatif sur la géométrie initiale sont des outils utiles qui peuvent améliorer la précision des solutions (avec moins de degrés de liberté), mais ces outils ne sont malheureusement pas suffisants pour atteindre de très hauts niveaux de déformation. La formulation lagrangienne actualisée où la géométrie du domaine de calcul est périodiquement mise à jour est donc préférée, et ceci même si des étapes de remaillage sont encore nécessaires afin de contrôler la qualité des éléments et d’éviter les éléments trop déformés, voire renversés. Suite à une étape de remaillage, le transfert de données (réinterpolation des variables) de l’ancien maillage vers le nouveau maillage est nécessaire, ce qui est un problème délicat. Si les transferts ne sont pas effectués adéquatement, la précision peut être sérieusement affectée. Dans cette thèse, nous présentons une formulation lagrangienne actualisée où l’erreur sur la solution éléments finis est estimée et combinée au remaillage adaptatif afin de raffiner le maillage dans les régions où l’erreur estimée est grande, et au contraire, enlever des éléments là où l’erreur est considérée petite, le tout en contrôlant la qualité des éléments du maillage. En utilisant cette approche, de très hauts niveaux de déformation peuvent être atteints tout en préservant la précision de la solution. Une attention particulière est portée aux méthodes de transfert de données et une méthode de projection cubique très précise est introduite. La méthode de continuation de Moore-Penrose, qui est très efficace, est aussi utilisée pour piloter automatiquement l’algorithme complet qui inclut l’augmentation de la charge, l’estimation d’erreur, le remaillage adaptatif et le transfert de données. Une nouvelle approche pour l’implémentation de la méthode de continuation de Moore-Penrose, facilitant la détection des points de bifurcation, sera aussi présentée de même que plusieurs exemples. / Accurate simulations of large deformation hyperelastic materials by the finite element method is still a challenging problem. In a total Lagrangian formulation, even when using a very fine initial mesh, the simulation can break down due to severe mesh distortion. Error estimation and adaptive remeshing on the initial geometry are helpful and can provide more accurate solutions (with a smaller number of degrees of freedom) but are not sufficient to attain very large deformations. The updated Lagrangian formulation where the geometry is periodically updated is then preferred. Remeshing may still be necessary to control the quality of the elements and to avoid too severe mesh distortion. It then requires frequent data transfer (reinterpolation) from the old mesh to the new one and this is a very delicate issue. If these transfers are not done appropriately, accuracy can be severely affected. In this thesis, we present an updated Lagrangian formulation where the error on the finite element solution is estimated and adaptive remeshing is performed in order to concentrate the elements of the mesh where the error is large, to coarsen the mesh where the error is small and at the same time to control mesh distortion. In this way, we can reach high level of deformations while preserving the accuracy of the solution. Special attention is given to data transfer methods and a very accurate cubic Lagrange projection method is introduced. As large deformation problems frequently have highly nonlinear solutions, the Moore-Penrose continuation method is used to automatically pilot the complete algorithm including load increase, error estimation, adaptive remeshing and data transfer. A new approach for the implementation of the Moore-Penrose continuation method, facilitating the detection of bifurcation points, will also be presented as well as a number of examples.
76

Mixed Velocity-Displacement Formulation for Modeling of Complex Behavior of Polymer / Formulation mixte vitesse-déplacement pour la modélisation du comportement complexe des polymères

Pham, Vu Thu 17 February 2012 (has links)
Ce travail a été effectué dans le cadre du projet Rem3D® dans lequel participent plusieurs entreprises avec l'objectif de développer un logiciel d'injection en 3D par éléments finis. L'objectif est de développer une méthode numérique pour modéliser le comportement viscoélastique des polymères de l'état solide à l'état liquide à travers une approche multiphasique qui est largement utilisé pour traiter le problème de l'interaction fluide-structure (IFS). La philosophie est d'utiliser une formulation mixte de trois champs (u, v, p) (déplacement, vitesse, pression), où u et v représentent les principales variables de déformation et de vitesse de déformation. Nous sommes amenés au problème de Navier-Stokes compressibles avec l'extra-contrainte, qui est résolu en utilisant la méthode des éléments finis mixte. Le présent travail contribue aussi certains éléments de stabilisation pour la simulation numérique des problèmes multiphasiques par l'approche monolithique.Comparaison entre la littérature et l'expérience est accompli par la validation du cas élastique et cas modèle viscoélastique de Kelvin-Voigt dans le lagrangien approche ainsi qu'eulérien approche. L'extension de la méthodologie au modèle visco-hyper-élastique est débuté par la modélisation et la validation au point matériel, puis l'implémentation dans la bibliothèque des éléments finis CimLib®. Enfin, un schéma stabilisation de résolution du type EVSS est adopté pour le modèle viscoélastique de Kelvin-Voigt, le modèle visco-hyper-élastique de Néo-Hookean, et aussi le modèle visco-hyper-élastique qui propose une prometteuse porte ouverte dans la simulation et modélisation, non seulement pour la viscoélasticité, mais aussi pour les applications dynamique complexes. / This work concerns the simulation of viscoelastic behavior of polymer at different states. Viscoelastic modeling of polymer was performed from the solid state to the liquid state via a multiphase approach which is largely used to deal with the fluid structure interaction. To ensure the appreciation of the FSI, viscoelasticity is considered in two parts: an elastic one and viscous other where the main idea is to use a mixed formulation in three fields (u, v, p) (displacement, velocity, pressure), with u and v, represented the primary variables of a strain and a strain rate formulation. We are led to the Navier-Stokes compressible problem with extra-stress, which is solved by using the Mixed Finite Element. The present work contributes some stabilization elements to the numerical simulation of multiphase problem by the monolithic approach.Comparison between the literature and experiments was performed through the validation of an elastic case and the viscoelastic Kelvin-Voigt model in the context of Lagrangian framework as well as Eulerian framework. The extension of the methodology to a visco-hyper-elastic is given through the modeling and validation on material point on the finite elements library CimLib®. Finally, a stabilization scheme of the EVSS type is adopted for viscoelastic Kelvin-Voigt model, hyper-elastic Neo-Hookean model, and also visco-hyper-elastic model which proposed an open door in computational modeling, not only with viscoelasticity but also complex dynamic application.
77

Modélisation et simulation numérique de structures articulées flexibles

Chajmowicz, Henri 20 June 1996 (has links) (PDF)
Nous nous intéressons, dans ce travail, aux chaînes ouvertes de corps élastiques, animés de grands mouvements rigides. Nous considérons deux types de problèmes : problème direct où on recherche les déplacements de la chaîne à chargement connu, problème inverse où la donnée est une position ou une trajectoire de l'extrémité terminale de la chaîne et où on recherche le chargement à imposer pour obtenir cette position ou cette trajectoire. Nous supposons que les corps de la chaîne sont bien modélisés par des poutres élastiques et nous étudions deux types de modélisations: une modélisation linéaire (approche convective) où les petits déplacements élastiques sont mesurés par rapport à un repère flottant qui suit les mouvements rigides des poutres de la chaîne et une modélisation non-linéaire (approche globale) où Ton n'effectue pas, au niveau de la formulation mécanique, de découplage entre déplacement élastique et déplacement rigide. Notre travail comporte la formulation mécanique et l'étude mathématique du problème direct dans les cas statiques et dynamiques, ce dans le cadre de l'approche convective et de l'approche globale, ainsi que l'étude mathématique d'un problème inverse dynamique simplifié. Nous avons en outre réalisé un traitement numérique simple et efficace du problème direct, ce dans le cas statique pour l'approche convective et dans les cas statiques et dynamiques pour l'approche globale.
78

Modélisation morphologique et micromécanique 3D de matériaux cimentaires

Escoda, Julie 30 April 2012 (has links) (PDF)
Cette thèse porte sur la modélisation morphologique de matériaux cimentaires, et sur l'analyse de leurs propriétés linéaires élastiques. Dans cet objectif, des images 3D, obtenues par micro-tomographie, de matériaux cimentaires (mortier et béton) sont étudiées. Dans un premier temps, l'image de mortier est segmentée afin d'obtenir une image de microstructure réelle pour des calculs en élasticité linéaire. L'image de béton est utilisée, après traitement, pour la détermination des caractéristiques morphologiques du matériau. Un modèle aléatoire de béton est ensuite développé et validé par des données morphologiques. Ce modèle comporte trois phases qui correspondent à la matrice, les granulats et les pores. La phase des granulats est modélisée par implantation sans recouvrement de polyèdres de Poisson. Pour cela, un algorithme de génération vectorielle de polyèdres de Poisson est mis en place et validé par des mesures morphologiques. Enfin, les propriétés linéaires élastiques effectives de la microstructure de mortier et de microstructures simulées sont déterminées par méthode FFT (Fast-Fourier Transform), pour différents contrastes entre le module de Young des granulats et de la matrice. Cette étude des propriétés effectives est complétée par une analyse locale des champs dans la matrice, afin de déterminer l'arrangement spatial entre les zones de concentration de contraintes dans la matrice, et les différentes phases de la microstructure (granulats et pores). Une caractérisation statistique des champs est de plus réalisée, avec notamment le calcul du Volume Élémentaire Représentatif (VER). Une comparaison des propriétés élastiques effectives et locales obtenues d'une part sur une microstructure simulée contenant des polyèdres et d'autre part sur une microstructure contenant des sphères est de plus effectuée.
79

Étude par simulations numériques de la plasticité dans les métaux

Clouet, Emmanuel 18 December 2013 (has links) (PDF)
Les activités de recherche, présentées dans le cadre de cette HDR, portent sur l'étude du comportement plastique des métaux à travers un travail de modélisation des propriétés des dislocations. Différents outils de simulation ont été utilisés et développés pour étudier la plasticité dans les métaux servant de matériaux de structure, et plus particulièrement les métaux d'intérêt pour l'industrie nucléaire. Dans les alliages à base de fer ou à base de zirconium, la plasticité est contrôlée à basse température par le glissement des dislocations vis. Les simulations atomiques permettent d'étudier les propriétés de cœur de ces dislocations et ainsi de mieux comprendre et quantifier les mécanismes mis en jeu au cours de leur glissement. Néanmoins, la modélisation des dislocations à cette échelle nécessite des techniques particulières à cause du champ élastique créé à longue distance qu'il est impératif de prendre en compte. Une approche reposant à la fois sur les simulations atomiques (simulations en potentiels empiriques ou calculs ab initio) et la théorie élastique a donc été développée afin de pouvoir simuler à une échelle atomique les dislocations et extraire de ces simulations des données quantitatives transposables aux échelles supérieures. Cette approche a été appliquée au fer, pour décrire la variation des propriétés de cœur des dislocations en fonction de leur caractère, ainsi qu'au zirconium, pour identifier l'origine de la forte friction de réseau observée dans les alliages de zirconium et mieux comprendre la compétition entre les différents systèmes de glissement. À haute température, les mouvements des dislocations autres que le glissement simple deviennent importants pour comprendre le développement de la déformation plastique. La montée, correspondant à un déplacement des dislocations à composante coin dans une direction perpendiculaire à leur plan de glissement, est, avec le glissement dévié, un de ces mécanismes opérant à haute température. Une étude à différentes échelles de la montée des dislocations a été réalisée, permettant d'implémenter ce mouvement de montée dans des codes de dynamique des dislocations, et par conséquent de mieux modéliser la déformation à chaud à l'aide de ces codes.
80

Comportement visco-élastique effectif d'un thermoplastique thermostable renforcé par des fibres courtes / Homogenized thermomechanical behavior of a short fiber thermoplastic composite under cyclic and monotonic loadings

Burgarella, Boris 12 January 2018 (has links)
Le secteur des transports aéronautiques, navals et terrestres fait de plus en plus appel pour les pièces d'habitacles ou de structure à des composites techniques de type thermoplastique thermostable renforcé par des fibres courtes. Ces matériaux alliant légèreté et résistance présentent l’intérêt majeur d’une meilleure recyclabilité d’une facilité de mise en œuvre et de maintenance que les matrices thermodurcissables dans les composites classiques. Toutefois, le développement de modèles de comportement dans le but de dimensionner des structures reste un véritable challenge. L’objectif de cette thèse concerne la modélisation du comportement de ce type de composite soumis à des chargements monotone et cyclique. Une étude expérimental a permis la détermination du comportement de chacun des constituants du composite. Leur comportement a ensuite été utilisé dans un calcul d'homogénéisation en champs complet basé sur une méthode FFT. Le comportement du composite est ensuite modélisé à l'aide d'un modèle visco-élastique spectral. Finalement, l'évolution des paramètres de ce modèle est étudiée en faisant varier la microstructure du composite (taux de fibre, dispersion d'orientation) afin d'établir un méta-modèle permettant de prédire le comportement du composite rapidement, et efficacement. / Transportation industries uses more and more composite materials each year. These composite materials provide a good alternative to classic materials thanks to their good specific resistances and stiffness. Short fiber composite materials and well suited for automotive applications, thanks to their ability to be used in injection process inducing very short fabrication cycles. But, the modeling of the behavior of these materials remains a challenge to this day. In this PhD work, an experimental characterization of a PEEK / short glass fiber composite has been conducted. A precise study of the PEEK behaior have also been conducted. The PEEK behavior was then used in an full field homogenization method based on FFT to obtain an effective behavior of the composite. A visco-elastic model was then used to model its behavior. Finally, a meta-model is build to accelerate the modeling process by studying the variation of the composite behavior with its microstructure parameters.

Page generated in 0.0989 seconds