• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 246
  • 139
  • 92
  • 23
  • 2
  • 1
  • 1
  • Tagged with
  • 502
  • 151
  • 92
  • 54
  • 53
  • 51
  • 51
  • 50
  • 49
  • 45
  • 45
  • 43
  • 38
  • 38
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Schémas d'ordre élevé pour la méthode SPH-ALE appliquée à des simulations sur machines hydrauliques

Renaut, Gilles-Alexis 17 December 2015 (has links)
Ce travail traite des méthodes de calcul numérique pour les simulations hydrodynamiques appliquées principalement sur des produits développés par ANDRITZ HYDRO. Il s’agit ici de mettre en place des schémas d’ordre élevé pour des simulations CFD en utilisant le code de calcul ASPHODEL développé et utilisé par ANDRITZ HYDRO. Les principales motivations sont l’augmentation de la fiabilité des résultats de calculs numériques avec un coût de calcul raisonnable. Cette fiabilité s’exprime à travers l’augmentation de la précision et de la robustesse des schémas numériques. Le code de calcul ASPHODEL est basé sur la méthode sans maillage SPH-ALE. Mélange entre les volumes finis et la méthode SPH (Smoothed Particle Hydrodynamics), la méthode SPH-ALE emploie un ensemble de points appelés particules servant à la discrétisation du domaine fluide. Elle permet en particulier de par son caractère sans maillage, un suivi des surfaces libres sans effort de calcul supplémentaire. Cet aspect est véritablement attrayant pour bon nombre d’applications industrielles notamment la simulation des écoulements à surface libre se produisant dans une turbine Pelton, mais également le remplissage d’une turbine Francis. Cependant, le bémol à cette méthode est son manque de précision spatiale. En effet les points de calcul étant mobiles, les opérateurs spatiaux doivent être en mesure de conserver leur précision et leur robustesse au cours du temps. La qualité des résultats en est du coup impactée, en particulier le champ de pression souvent excessivement bruité. La montée en ordre et l’amélioration de la consistance des opérateurs pour un vaste panel de configurations géométriques sont donc les enjeux de ce travail. En utilisant des outils inspirés par les volumes finis non-structurés, il est possible d’améliorer les opérateurs spatiaux. En effet, la montée en ordre ou p-raffinement peut notamment se faire avec des reconstructions d’ordres élevés pour évaluer les états aux interfaces des problèmes de Riemann. La sommation des flux numériques résolus par un solveur de Riemann est ensuite retravaillée pour obtenir un schéma numérique d’ordre global cohérent. Le même soucis de cohérence avec les schémas en temps doit d’ailleurs être pensé. Le gain de précision apporté par les schémas numériques d’ordre élevé est comparé avec un raffinement spatial, c’est à dire une augmentation du nombre des particules de taille plus petite, aussi appelé h-raffinement. La méthode SPH-ALE améliorée est ensuite testée sur des cas représentatifs des applications visées. En conclusion, les développements effectués dans cette étude ont été guidés par l’application en turbine Pelton principalement mais il va de soi qu’ils sont applicables à des écoulements sans surface libre dans les turbines Francis par exemple. Ce travail montre les possibilités d’une méthode sans maillage pour des cas d’écoulements complexes autour de géométrie tournantes. / This work deals with numerical methods for hydrodynamic testing applied mainly on products developed by ANDRITZ HYDRO. This is to put in place high order schemes for CFD simulations using the ASPHODEL calculation code developed and used by ANDRITZ HYDRO. The main reasons are the increased reliability of the results of numerical calculations with a reasonable computational cost. This reliability is expressed through increasing the accuracy and robustness of numerical schemes. The ASPHODEL computer code is based on the meshfree method SPH-ALE. Mix between finite volume method and SPH (Smoothed Particle Hydrodynamics), the SPH-ALE method uses a set of points called particles serving as the fluid domain discretization. It allows track free surfaces without additional computational effort. This is truly attractive for many industrial applications including the simulation of free surface flows occurring in a Pelton turbine, but also filling a Francis turbine. However, the downside of this method is its lack of spatial accuracy. Indeed calculation points are mobile, space operators must be able to keep their accuracy and robustness over time. The quality of results is impacted especially the pressure field is often excessively noisy. The rise in order and improving the consistency of the operators for a wide range of geometric configurations are the challenges of this work. Using tools inspired by the unstructured finite volume, it is possible to improve the spatial operators. Indeed, the increasing order or p-refinement particular can be done with reconstructions of high order to assess the conditions at the interfaces of Riemann problems. The summation of discret fluxes solved by Riemann solver is then reworked to obtain a coherent global order scheme. The same concern for consistency with temporal schemes should also be considered. The precision gain provided by numerical schemes of higher orders is compared with a spatial refinement ie an increase in the number of smaller particles ; also called h -refinement . Improved SPH -ALE method is then tested on representative cases of intended applications. In conclusion, the developments made in this study were guided in accordance mainly with the Pelton turbine but it goes without saying that they are applicable to non- free surface flows in Francis turbines for example. This work shows the possibilities of a free mesh method for cases of complex flow around rotating geometry.
122

Modelisation macroscopique de mouvements de foule / Macroscopic modelling of crowd motion

Roudneff, Aude 12 December 2011 (has links)
Nous étudions dans ce travail les mouvements de foule intervenant dans les situa- tions d’urgence. Nous proposons un modèle macroscopique (la foule est représentée par une densité de personnes) obéissant à deux principes très simples. Tout d’abord, chaque personne possède une vitesse souhaitée (typiquement celle qui la mène vers la sortie), qu’elle adopterait en l’absence des autres. Ensuite, la foule doit respecter une contrainte de congestion, et la densité de personnes doit rester inférieure à une valeur fixée. Cette contrainte impose une vitesse de déplacement différente de la vitesse souhaitée. Nous choisissons de prendre comme vitesse réelle celle qui est la plus proche, au sens des moindres carrés, de la vitesse souhaitée, parmi les champs de vitesses admissibles, au sens où ils respectent la contrainte de densité maximale. Le modèle obtenu s’écrit sous la forme d’une équation de transport impliquant une vitesse peu régulière a priori, et qui ne peut être étudiée par des méthodes classiques. Nous démontrons un résultat d’existence grâce à la théorie du transport optimal, tout d’abord dans le cas d’une vitesse donnée comme le gradient d’une fonction, puis dans le cas général. Nous mettons également en œuvre un schéma numérique de type catching-up : à chaque pas de temps, la densité est déplacée selon le champ de vitesse souhaitée, puis est projetée sur l’ensemble des densités admissibles. Les résultats obtenus fournissent des temps d’évacuation dont l’ordre de grandeur est proche de la réalité. / In this work, we aim at modelling crowd motion in emergency situations. We propose a macroscopic model (where people are represented as a density) following two basic principles. First, each individual has a spontaneous velocity (typically, the one which leads to the nearest exit) which would be fulfilled in the absence of other people. On the other hand, the crowd has to respect a congestion constraint, and its density must remain underneath a critical density. This constraint prevents people from following their desired velocity. The actual velocity we consider is the closest, in a mean square sense, to the desired one, among the velocities which respect the maximal density constraint.The mathematical formulation writes as a transport equation which cannot be studied with classical methods, since the real velocity field has no a priori regularity, even if the desired velocity is smooth. Thanks to the optimal transport theory, we prove an existence result, first in the case where the desired velocity is the gradient of a given function, and then in the general framework. We also propose a numerical scheme which follows the catching-up principle: at each time step, we move the density according to the spontaneous velocity, and then project it onto the space of admissible densities. The numerical results we obtain reproduce qualitatively the experimental observations
123

Contribution à la modélisation multi-échelle des matériaux composites / Contribution to the multiscale modeling of composite materials

Koutsawa-Tchalla, Adjovi Abueno Kanika C-M. 17 September 2015 (has links)
Nous proposons dans cette thèse diverses approches, pour l'amélioration de la modélisation et la simulation multi-échelle du comportement des matériaux composites. La modélisation précise et fiable de la réponse mécanique des matériaux composite demeure un défi majeur. L'objectif de ce travail est de développer des méthodologies simplifiées et basées sur des techniques d'homogénéisation existantes (numériques et analytiques) pour une prédiction efficiente du comportement non-linéaire de ces matériaux. Dans un premier temps un choix à été porté sur les techniques d'homogénéisation par champs moyens pour étudier le comportement élastoplastique et les phénomènes d'endommagement ductile dans les composites. Bien que restrictives, ces techniques demeurent les meilleures en termes de coût de calcul et d'efficacité. Deux méthodes ont été investiguées à cet effet: le Schéma Incrémental Micromécanique (SIM) en modélisation mono-site et le modèle Mori-Tanaka en modélisation multi-site (MTMS). Dans le cas d'étude du comportement élastoplastique, nous avons d'une part montré et validé par la méthode des éléments finis que la technique d'homogénéisation SIM donne un résultat plus précis de la modélisation des composites à fraction volumique élevée que celle de Mori-Tanaka, fréquemment utilisée dans la littérature. D'autre part nous avons étendu le modèle de Mori-Tanaka (M-T) généralement formulé en mono-site à la formulation en multi-site pour l'étude du comportement élastoplastique des composites à microstructure ordonnée. Cette approche montre que la formulation en multi-site produit des résultats concordants avec les solutions éléments finis et expérimentales. Dans la suite de nos travaux, le modèle d'endommagement ductile de Lemaître-Chaboche a été intégré à la modélisation du comportement élastoplastique dans les composites dans une modélisation multi-échelle basée sur le SIM. Cette dernière étude révèle la capacité du modèle SIM à capter les effets d'endommagement dans le matériau. Cependant, la question relative à la perte d'ellipticité n'a pas été abordée. Pour finir nous développons un outil d'homogénéisation numérique basé sur la méthode d'éléments finis multi-échelles (EF2) en 2D et 3D que nous introduisons dans le logiciel conventionnel ABAQUS via sa subroutine UMAT. Cette méthode (EF2) offre de nombreux avantages tels que la prise en compte de la non-linéarité du comportement et de l'évolution de la microstructure soumise à des conditions de chargement complexes. Les cas linéaires et non-linéaires ont été étudiés. L'avantage de cette démarche originale est la possibilité d'utilisation de toutes les ressources fournies par ce logiciel (un panel d'outils d'analyse ainsi qu'une librairie composée de divers comportements mécaniques, thermomécaniques ou électriques etc.) pour l'étude de problèmes multi-physiques. Ce travail a été validé dans le cas linéaire sur un exemple simple de poutre en flexion et comparé à la méthode multi-échelle ANM (Nezamabadi et al. (2009)). Un travail approfondi sera nécessaire ultérieurement avec des applications sur des problèmes non-linaires mettant en évidence la valeur de l'outil ainsi développé / We propose in this thesis several approaches for improving the multiscale modeling and simulation of composites’ behavior. Accurate and reliable modeling of the mechanical response of composite materials remains a major challenge. The objective of this work is to develop simplified methodologies based on existing homogenization techniques (numerical and analytical) for efficient prediction of nonlinear behavior of these materials. First choice has been focused on the Mean-field homogenization methods to study the elasto-plastic behavior and ductile damage phenomena in composites. Although restrictive, these techniques remain the best in terms of computational cost and efficiency. Two methods were investigated for this purpose: the Incremental Scheme Micromechanics (IMS) in One-site modeling and the Mori-Tanaka model in multi-site modeling (MTMS). In the framework of elastoplasticity, we have shown and validated by finite element method that the IMS homogenization results are more accurate, when dealing with high volume fraction composites, than the Mori-Tanaka model, frequently used in the literature. Furthermore, we have extended the Mori-Tanaka's model (MT) generally formulated in One-site to the multi-site formulation for the study of elasto-plastic behavior of composites with ordered microstructure. This approach shows that the multi-site formulation produces consistent results with respect to finite element and experimental solutions. In the continuation of our research, the Lemaître-Chaboche ductile damage model has been included to the study of elasto-plastic behavior in composite through the IMS homogenization. This latest investigation demonstrates the capability of the IMS model to capture damage effects in the material. However, the issue on the loss of ellipticity was not addressed. Finally we develop a numerical homogenization tool based on computational homogenization. This novel numerical tool works with 2D and 3D structure and is fully integrated in the conventional finite element code ABAQUS through its subroutine UMAT. The (FE2) method offers the advantage of being extremely accurate and allows the handling of more complex physics and geometrical nonlinearities. Linear and non-linear cases were studied. In addition, its combination with ABAQUS allows the use of major resources provided by this software (a panel of toolbox for various mechanical, thermomechanical and electrical analysis) for the study of multi-physics problems. This work was validated in the linear case on a two-scale analysis in bending and compared to the multi-scale method ANM (Nezamabadi et al. (2009)). Extensive work will be needed later with applications on non-linear problems to highlight the value of the developed tool
124

Body schema plasticity after tool-use / Plasticité du schéma corporel suite à l’utilisation d’outils

Cardinali, Lucilla 25 November 2011 (has links)
Nous avons tous un corps, et seulement un corps. Grâce à lui, nous nous déplaçons dans l’espace, nous interagissons avec le monde extérieur et les autres individus qui l’habitent, nous percevons, bref, nous vivons. Il s’agit d’un objet unique et essentiel. Cependant, bien que nous ayons un seul corps, il en existe dans le cerveau plusieurs représentations. Peu d’accord existe en littérature sur le nombre de représentation, mais tout le monde concorde sur le fait qu’il en existe plus qu’une. Les modèles de la représentation corporelle sont basés sur une notion de séparation des fonctions, selon laquelle activités différentes requièrent différentes représentations. Au cours de ma thèse j’ai étudié une de ces représentations dont la fonction principale est de fournir une connaissance du corps utile à l’action. Cette représentation est nommée Schéma Corporel. En particulier, en utilisant une technique comportementale puissante telle que la cinématique, j’ai pu montrer, pour la première fois, que le Schéma Corporel est une représentation extrêmement plastique, capable d’intégrer des outils lorsqu’ils sont utilisés pour effectuer une action. Ensuite, j’ai pu décrire cette propriété plastique du Schéma Corporel en montrant quelles informations sensorielles sont nécessaires et quels aspects des outils sont intégrés dans la représentation du corps. Les résultats de mes études expérimentales, ainsi que mon travail de synthèse de la littérature, m’ont permis d’élaborer une définition opérative du Schéma Corporel et de sa plasticité / We all have a body : our own body and just one body. Through it, we move, we interact with the world and other persons, we perceive, basically we live. It’s a unique essential object. If it is true that we have only one physical body, we also have many representations of it in the brain. There is little agreement about the exact number of body representations in the brain, but not on the fact that we have more than one. The multi-componential models of body representation are based on the notion, supported by scientific evidence that different activities demand and rely on specifically adapted representations. In my thesis, I studied one particular body representation that is used and involved in action planning and execution, i.e. the Body Schema. I have been able to describe and measure the plasticity of the Body Schema and its level of specificity in healthy individuals. In particular, using a tool-use paradigm, I showed that the Body Schema is quickly and efficiently updated once a change in the body configuration occurs. With a series of kinematic studies, I contributed unveiling the ingredients that rule the plasticity of the BS and the sensory information that is used to this purpose. As a result of my thesis, I suggest that a clearer definition and operational description of the Body Schema, as an action-devoted repertoire of effectors representations, is possible, particularly thanks to its plastic features
125

Dánské předložky. Sémantická analýza / Danish prepositions. Semantic analysis

Bednářová, Marie January 2012 (has links)
5 ABSTRACT In this thesis, we examine the possibilities of a semantic analysis of spatial configurations represented by Danish prepositions. In the theoretical part of the thesis, we explore the means that cognitive linguistics uses to describe meaning in general, and to describe spatial configuration in particular. We also briefly present the results of several analyses of English spatial expressions. In the practical part of the thesis, we then apply the cognitive linguistics' terms and methods on material gathered from Danish dictionaries and grammar handbooks and Danish Corpus, in order to achieve an analysis of spatial senses represented by the Danish preposition i. The result of our analysis is a structured overview of the preposition's distinct spatial senses, accompanied by a suggestion of the preposition's semantic network. KEY WORDS: cognitive semantics, spatial scene, schema, spatial configuration, prepositions, Danish
126

Développement et validation de schémas de calcul dédiés à l'interprétation des mesures par oscillation pour l'amélioration des données nucléaires / Development and validation of calculation schemes dedicated to the interpretation of small reactivity effects for nuclear data improvement

Gruel, Adrien 24 October 2011 (has links)
Les mesures de réactivité par la technique d'oscillation, comme celles effectuées dans le réacteur Minerve, permettent de tester de nombreux paramètres neutroniques sur des matériaux, des combustibles ou des isotopes spécifiques. Généralement, les effets attendus sont très faibles, tout au plus de l'ordre de la dizaine de pcm. La modélisation de ces expériences doit donc être particulièrement précise, afin d'obtenir un retour fiable et précis sur les paramètres ciblés. En particulier, les biais de calcul doivent être clairement identifiés, quantifiés et maîtrisés afin d'obtenir des informations pertinentes sur les données nucléaires de base. L'enjeu de cette thèse est le développement d'un schéma de calcul de référence, dont les incertitudes sont clairement identifiées et quantifiées, permettant l'interprétation des mesures par oscillation. Dans ce document plusieurs méthodes de calcul de ces faibles effets en réactivité sont présentées, basées sur des codes de calculs neutroniques déterministes et/ou stochastiques. Ces méthodes sont comparées sur un benchmark numérique, permettant leur validation par rapport à un calcul de référence. Trois applications sont ici présentées dans le détail : une méthode purement déterministe utilisant la théorie des perturbations exacte pour la qualification des sections efficaces des principaux produits de fission en REP, dans le cadre d'études sur l'estimation de la perte du réactivité du combustible au cours du cycle ; une méthode hybride, basée sur un calcul stochastique et la théorie des perturbations exacte, permet d'obtenir un retour précis sur les données nucléaires de bases d'isotopes, dans notre cas l'241Am; et enfin, une troisième méthode, reposant sur un calcul perturbatif Monte Carlo, est utilisée pour une étude de conception. / Reactivity measurements by the oscillation technique, as those performed in the Minerve reactor, enable to access various neutronic parameters on materials, fuels or specific isotopes. Usually, expected reactivity effects are small, about ten pcm at maximum. Then, the modeling of these experiments should be very precise, to obtain reliable feedback on the pointed parameters. Especially, calculation biases should be precisely identified, quantified and reduced to get precise information on nuclear data. The goal of this thesis is to develop a reference calculation scheme, with well quantified uncertainties, for in-pile oscillation experiments. In this work are presented several small reactivity calculation methods, based on deterministic and/or stochastic calculation codes. Those method are compared thanks to a numerical benchmark, against a reference calculation. Three applications of these methods are presented here: a purely deterministic calculation with exact perturbation theory formalism is used for the experimental validation of fission product cross sections, in the frame of reactivity loss studies for irradiated fuel; an hybrid method, based on a stochastic calculation and the exact perturbation theory is used for the readjustment of nuclear data, here 241Am; and a third method, based on a perturbative Monte Carlo calculation, is used in a conception study.
127

Identification de sources temporelles pour les simulations numériques des équations de Maxwell / Source identification in time domain for numerical simulations of Maxwell’s equations

Benoit, Jaume 11 December 2012 (has links)
Les travaux effectués durant cette thèse s’inscrivent dans le cadre d’une collaboration entre l’équipe CEM de l’Institut Pascal et l’équipe EDPAN du Laboratoire de Mathématiques de l’Université Blaise Pascal de Clermont-Ferrand. Nous présentons ici une étude qui, partant de l’analyse du processus de Retournement Temporel en électromagnétisme, a débouché sur le développement d’une méthode originale baptisée Linear Combination of Configuration Fields (LCCF) ou, en français, Combinaison Linéaire de Configurations de Champs. Après avoir introduit l’ensemble des outils et méthodes utilisés dans ces travaux, ce mémoire détaille le processus de Retournement Temporel de base ainsi qu’un ajout apporté à celui-ci. Par la suite, la méthode LCCF s’étant révélée applicable à plusieurs problèmes d’identification de sources en électromagnétisme, nous nous consacrons à la présentation détaillée des différentes variantes de celle-ci et nous illustrons son utilisation sur de nombreux exemples numériques. / This Ph.D thesis is the result of a collaboration between the CEM team of Pascal Institute and the EDPAN team of the Laboratory of Mathematics of the Blaise Pascal University in Clermont-Ferrand. We present here a study based on Time Reversal process in Electromagnetics. This work led to the development of a novel method called Linear Combination of Configuration Field (LCCF). This thesis first introduces the tools and the numerical methods used during this work. Then, we describe the Time Reversal process and a possible improvement to the basic technic. Afterwards, several possible applications of the LCCF method to electromagnetic source identification problems are detailed and we illustrate each of it on various numerical examples.
128

Impact de l’évolution du schéma de prophylaxie et des structures et pratiques d’élevage sur l’évolution de la tuberculose bovine en France entre les années 1965 et 2000 : modélisation de l’incidence cheptel et de la dynamique de transmission intra-élevage de l’infection / Impact of the Evolution of Pontrol programs and Herd Structures on the Evolution of Bovine Tuberculosis in France Between 1965 and 2000 : Modeling Herd Incidence and of the Within-herd Infection Dynamic

Bekara, Mohammed El Amine 25 November 2014 (has links)
En France, la lutte collective contre la tuberculose bovine à partir de 1965 a permis d’obtenir en 2000 le statut officiellement indemne. En parallèle de cette évolution, plusieurs schémas de prophylaxie ont été appliqués et le cheptel bovin français a connu une évolution dans sa structure démographique et dans les pratiques de sa gestion. L’objectif principal de cette thèse était d’étudier la relation entre ces trois évolutions parallèles. Deux approches ont été utilisées : l’analyse d’une série de données longue et la modélisation mécaniste de la tuberculose bovine. L’analyse d’une série de données longue, grâce à un modèle spatio-Temporel hiérarchique Bayésien, nous a permis de mettre en évidence, en plus de l’effet de schéma de prophylaxie, l’impact des structures et pratiques d’élevage sur le taux d’incidence de la maladie au niveau départemental. Quatre facteurs de risque ont ainsi pu être identifiés : l’augmentation de la taille et de la densité des élevages, la proportion plus importante de vaches laitières, et la part de la surface agricole utile occupée par les pâtures. Ces variables sont liées à la professionnalisation et à la spécialisation des élevages bovins en France.La modélisation mécaniste, fondée sur un modèle stochastique compartimental, nous a montré que les pratiques d’élevage ont un effet sur la dynamique de transmission intra-Élevage de la tuberculose bovine : la médiane estimée de paramètre de transmission de l’infection durant la période de stabulation était 5 fois plus élevée que durant la période de pâturage. De plus, ce modèle a permis de montrer que les changements des structures et pratiques d’élevage avaient un poids important sur le risque de transmission entre élevages, au pâturage, par rapport aux changements de schémas de prophylaxie. Une expérimentation ex-Ante fondée sur le modèle a montré qu’environ un quart des variations du risque de transmission inter-Élevages au pâturage étaient expliquées par les changements des pratiques d’élevage contre un dixième par les changements de schémas de prophylaxie. Ce résultat suggère que l’éradication de la maladie en France est sans doute plus complexe qu’il n’y paraît. / In France, the collective control of bovine tuberculosis (bTB) from 1965 allowed France to obtain in 2000 the bTB-Free status. In parallel to this evolution, several control programs have been applied and cattle population has changed in its demographic structure and herd management practices. The main objective of this thesis was to study the relationship between these three parallel evolutions. Two different approaches were used: data analysis of bTB incidence between 1965 and 2000 in French departments, and modeling of within-Herd bTB transmission.Data analysis using a spatio-Temporal hierarchical Bayesian model has allowed us demonstrating, in addition to the effect of control program, the impact of the evolution of herd structures and management practices on the incidence rate of the disease at the departmental level. Four factors were associated with an increased risk of bTB: the average herd density and size, the percentage of dairy cows in the cattle population, and the percentage of permanent grassland in cultivated surfaces area. These four factors are linked to the progressive professionalization and specialization of cattle farming in France.The mechanistic modeling work, based on a stochastic compartmental model, showed that herd husbandry practices management have an effect on the dynamics of within-Herd transmission of bTB: when animals are inside buildings, the estimated median of the infection transmission parameter was 5 times higher than during the grazing period. In addition, this model has shown that, compared to the impact of changes in control program, changes in herd structures and management practices had a significant weight on the risk of transmission between farms, on pastures. An ex-Ante experimentation based on the model showed that about a quarter of the variations in the risk of transmission between herds on pasture was explained by changes in husbandry practices management against 10% explained by changes in control programs. This result suggests that eradication of the disease in France is probably more complex than it seems.
129

Le rôle de l'habitude dans la perception chez Merleau-Ponty

Couture-Michaud, Émile 09 1900 (has links)
No description available.
130

POLYCRISTAUX A GRAINS ULTRAFINS ELABORES PAR METALLURGIE DES POUDRES : MICROSTRUCTURE, PROPRIETES MECANIQUES ET MODELISATION MICROMECANIQUE

Bui, Quang-Hien 02 December 2008 (has links) (PDF)
Les principes de base de l'élaboration des matériaux présentant de bonnes propriétés mécaniques sont connus depuis que la théorie des dislocations fut développée. Si la ductilité nécessite une mobilité raisonnable des dislocations, la résistance mécanique est, elle, liée à la présence des obstacles qui limitent le mouvement des dislocations. Parmi les différentes méthodes pour introduire ces obstacles l'affinage de la taille des grains a une contribution importante. Cependant, les propriétés mécaniques d'un agrégat polycristallin ne dépendent pas uniquement de la taille moyenne des grains mais aussi de la dispersion des tailles de grains dans le matériau. La métallurgie des poudres est une technologie versatile pour élaborer des microstructures “à la demande”. Dans ce cadre, nous avons utilisé la compaction isostatique à chaud (CIC) et le frittage flash (SPS) pour générer à partir de (nano)poudres de nickel pur, différents microstructures afin d'en étudier les influences sur le comportement mécanique macroscopique. En parallèle, nous avons, dans le cadre d'une modélisation micromécanique selon un schéma auto cohérent généralisé, modélisé le comportement macroscopique tenant compte des fraction volumiques des phases constituantes (grains, joints de grains) ainsi que leurs dispersions statistiques.

Page generated in 0.0346 seconds