• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • Tagged with
  • 18
  • 18
  • 8
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Numerical simulation approaches and methodologies for multi-physic comprehensions of titanium alloy (Ti–6Al–4V) CUTTING / Approches numériques et méthodologies pour une compréhension multi-physiques de la coupe de l'alliage de titane (Ti–6Al–4V)

Zhang, Yancheng 29 September 2011 (has links)
Ce travail de thèse est focalisé sur l’établissement d’un modèle de coupe orthogonale simulant l’usinage de l’alliage de Titane (Ti–6Al–4V). L’objectif principal est de contribuer à des approches et des méthodologies numériques permettant la modélisation de la formation du copeau de ce type d’alliage et l’amélioration de la compréhension des phénomènes multi-physiques induits par l’enlèvement de matière et qui découle de l’interaction outil-matière. Pour se faire, ce travail de recherche commence par la présentation d’une méthodologie macroscopique et robuste permettant d’établir un modèle de coupe en adoptant la loi de comportement phénoménologique de Johnson et Cook. L’une des améliorations apportés dans ce modèle consiste à adopter le critère de l’énergie de rupture pour contrôler l’évolution de l’endommagement de la matière et pourvoir par conséquent simuler pertinemment la genèse du copeau. Cela a permis de capturer la localisation de la déformation maximale par cisaillement et par la suite de dimensionner les formes caractéristiques liées au phénomène de segmentation du copeau selon les conditions de coupe adoptées. Le modèle de frottement à l’interface outil-matière découpée a également été affiné en intégrant une contrainte de cisaillement limite à l’interface copeau-outil. L’effet de la température sur cette contrainte limite a également été considéré et implémenté dans une routine utilisateur. Cela a permis de modéliser la formation du copeau même sous des conditions de frottement agressives et avec des rayons d’acuité d’arête de coupe élevés. L’étude paramétrique ainsi effectuée montre une très bonne concordance avec les résultats expérimentaux. Dans un second temps un modèle qui peut-être qualifié de multi-echelles a été élaboré. Ce modèle de coupe tient compte de la microstructure du matériau à découper. Il est basé sur la théorie de la plasticité cristalline pour simuler la coupe orthogonale de l’alliage de Titane Ti–6Al–4V. Dans cette approche, les grains de la matière traitée sont présentés explicitement dans le maillage avec des formes hexagonales caractérisées par différentes orientations et systèmes de glissement. Dans ce cas d’étude le processus de dégradation de la matière sous différentes sollicitations thermomécaniques est le résultat de la cœxistence de deux types d’endommagement. En effet, il est supposé une rupture de la matière au niveau des grains qualifiée de dommage intra-granulaire et un dommage éventuel, aux interfaces des grains, qualifié d’inter-granulaire. Ce dernier est simulé par des éléments cohésifs d’épaisseurs nulles traduisant la possibilité de la décohésion des gains de la matière. Ce modèle est validé par des résultats de compression provenant de la littérature. / The objective of this study is to model material removal with cutting tool in the case of the machining of Titanium alloy (Ti–6Al–4V) and to bring a multi-physic comprehension of chip formation and the tool/workpiece interaction by adopting finite element approaches and methodologies. For that, the present contribution begins by a macroscopic modeling of the orthogonal cutting process. The cut material behavior considered is supposed based on JC law. Moreover, in order to simulate properly the chip genesis, the material fracture energy concept is adopted for controlling the material damage evolution. This allows capturing the shear strain localization and consequently the chip segmentation for a given set of cutting parameters. The frictional contact model considers the influence of temperature on the limiting shear stress at the tool/chip interface. As a result, this reliable model has the capability to simulate the cutting process even with high coefficient of friction and with large cutting edge radius. The parametric study carried out by referring to this model shows a very interesting corroboration with experimental results. In a second step, the present research work presents a material microstructure-level cutting model (MML cutting model) for cutting simulation. The crystal plasticity theory is adopted for modeling the cutting of the Titanium alloy Ti–6Al–4V in orthogonal case. In this model, the grains of the studied material are explicitly considered, and their orientation angles and slip system strength anisotropy are considered as the main source of the microstructure heterogeneity in the cutting material. To simulate the material degradation process, the continuum intra-granular damage and discrete cohesive zone inter-granular damage models are developed, wherein the zero thickness cohesive elements are implemented to simulate the bond between grain interfaces. The material model is validated by a comparison of compression tests from literature. Finally, simulation results demonstrate the possibility to capture the influence of the microstructure on the material removal in terms of chip formation. It is demonstrated that the grain orientation angle plays an important role for the chip segmentation and its periodicity during the cutting process. This certainly can affect the evolution of the cutting force. Additionally, the surface integrity is discussed based on the MML cutting model for different cutting speeds and feed rates. Indeed, a parametric study shows that the surface integrity is seriously affected by the machining parameters, and the affected region is limited within three layer grains for the present MML cutting model.
12

Contribution à la compréhension des combustions anormales dans les moteurs à allumage commandé : caractérisation et analyse phénoménologique du pré allumage à forte charge / Contribution the understanding of abnormal combustions in spark ignition engines : characterization and phenomenological analysis of pre-ignition at high load

Zaccardi, Jean-Marc 09 March 2012 (has links)
L'augmentation continue des charges de fonctionnement des moteurs à allumage commandé a conduit à l'apparition d'une nouvelle forme de combustion anormale à bas régime sous la forme d'un pré allumage. Dans des conditions de pression et de température extrêmes, une auto-inflammation incontrôlée du mélange carburé peut en effet se produire avant l'allumage normal à la bougie et conduire à une seconde auto-inflammation de type cliquetis donnant naissance à des oscillations de pression inacceptables même pour les moteurs les plus robustes. Cette anomalie constitue donc une véritable limite au downsizing des moteurs et à l'augmentation de leurs performances spécifiques. Cette dernière forme de combustion anormale est bien plus critique que le cliquetis car son apparition est aléatoire, le plus souvent sporadique et généralement très violente. Ces caractéristiques fondamentales expliquent que de nouveaux outils et de nouvelles méthodologies d'analyse aient dû être développés pour mieux caractériser le processus d'auto-inflammation dans ces conditions extrêmes. Des méthodes statistiques avancées ont notamment été mises au point pour quantifier de manière fiable la fréquence d'apparition du pré allumage malgré son caractère aléatoire. En parallèle, un travail expérimental important a été réalisé pour mettre au point une méthodologie de réalisation de visualisations endoscopiques permettant de mieux analyser le processus de combustion, et d'identifier de manière plus précise les zones préférentielles d'apparition du pré allumage dans la chambre de combustion. Les impacts des paramètres fondamentaux régissant l'auto-inflammation (aérodynamique interne, thermique et chimie du mélange) ont d'abord été analysés sur un monocylindre de recherche. Le processus de combustion a ainsi été détaillé et l'hypothèse d'une auto-inflammation spontanée en phase gazeuse a également pu être abordée en parallèle de l'analyse expérimentale par une approche numérique RANS. Une étude plus approfondie a ensuite montré qu'il était possible qu'un pré allumage conduise à une auto-inflammation de type détonation, ce qui explique qu'un nombre réduit d'occurrences suffise à détériorer irrémédiablement le moteur. La versatilité du monocylindre a également permis de mettre en évidence la diversité des phénomènes qui pouvaient conduire au pré allumage et d'autres hypothèses que celle d'une auto-inflammation spontanée en phase gazeuse ont ainsi pu être formulées. Celles-ci ont finalement été testées sur un multicylindre en appliquant des méthodologies d'essais et d'analyse éprouvées sur monocylindre. Les investigations tournées vers l'impact des réglages moteur ont alors notamment confirmé que les impacts du carburant sur les parois de la chambre de combustion conduisaient à la formation de films liquides dont les caractéristiques locales pouvaient être favorables à une auto-inflammation. / The continuous increase of engine loads on SI engines has provoked the apparition of a new form of abnormal combustion at low engine speed in the guise of a pre-ignition. Under extreme conditions of pressure and temperature, an uncontrolled auto-ignition of the fresh mixture can happen well before the normal ignition at the spark and lead to a knocking-like second auto-ignition and to unacceptable pressure oscillations even for modern and robust engines. This anomaly constitutes thus a strong limit to the downsizing of gasoline engines and to the increase of their specific performance. This latter abnormal combustion is far more critical than knocking combustion since its apparition is random, most often sporadic and usually very violent. These fundamental characteristics explain that new tools and methodologies had to be developed to achieve a better characterization of the auto-ignition process under such extreme conditions. Advanced statistical methods have notably been defined to obtain a reliable quantification of the pre-ignition frequency despite its randomness. A significant work has simultaneously been realized to develop an experimental methodology dedicated to endoscopic visualizations allowing a better analysis of the combustion process and a more precise identification of the preferential areas of auto-ignition inside the combustion chamber. The impacts of fundamental parameters governing auto-ignition (the mixture's charge motion, thermal and chemical evolutions) have first been analyzed thanks to a research single cylinder engine. That way, the combustion process has been detailed and the hypothesis of a spontaneous auto-ignition of the gaseous mixture has also been tackled at the same time with the help of a numerical RANS approach. Then, a deeper analysis has showed that pre-ignition could lead to a developing detonation mode during the second auto-ignition, explaining so that a reduced number of events could cause irremediable damages. Thanks to the flexibility of the single cylinder engine, it has also been shown that a wide variety of phenomena could lead to pre-ignition and it has made possible the formulation of other hypotheses than a spontaneous auto-ignition of the gaseous mixture. These ones have finally been tested on a serial multi-cylinder engine with test and analysis methodologies validated on the single cylinder engine. The investigations focused on the impacts of settings have then confirmed that the fuel impacts on the liner and on the piston lead to the formation of liquid films whose local characteristics could be favorable to auto-ignition.
13

High performance lattice Boltzmann solvers on massively parallel architectures with applications to building aeraulics / Implantations hautes performances de la méthode de Boltzmann sur gaz réseau. Applications à l'aéraulique des bâtiments

Obrecht, Christian 11 December 2012 (has links)
Avec l'émergence des bâtiments à haute efficacité énergétique, il est devenu indispensable de pouvoir prédire de manière fiable le comportement énergétique des bâtiments. Or, à l'heure actuelle, la prise en compte des effets thermo-aérauliques dans les modèles se cantonne le plus souvent à l'utilisation d'approches simplifiées voire empiriques qui ne sauraient atteindre la précision requise. Le recours à la simulation numérique des écoulements semble donc incontournable, mais il est limité par un coût calculatoire généralement prohibitif. L'utilisation conjointe d'approches innovantes telle que la méthode de Boltzmann sur gaz réseau (LBM) et d'outils de calcul massivement parallèles comme les processeurs graphiques (GPU) pourrait permettre de s'affranchir de ces limites. Le présent travail de recherche s'attache à en explorer les potentialités. La méthode de Boltzmann sur gaz réseau, qui repose sur une forme discrétisée de l'équation de Boltzmann, est une approche explicite qui jouit de nombreuses qualités : précision, stabilité, prise en compte de géométries complexes, etc. Elle constitue donc une alternative intéressante à la résolution directe des équations de Navier-Stokes par une méthode numérique classique. De par ses caractéristiques algorithmiques, elle se révèle bien adaptée au calcul parallèle. L'utilisation de processeurs graphiques pour mener des calculs généralistes est de plus en plus répandue dans le domaine du calcul intensif. Ces processeurs à l'architecture massivement parallèle offrent des performances inégalées à ce jour pour un coût relativement modéré. Néanmoins, nombre de contraintes matérielles en rendent la programmation complexe et les gains en termes de performances dépendent fortement de la nature de l'algorithme considéré. Dans le cas de la LBM, les implantations GPU affichent couramment des performances supérieures de deux ordres de grandeur à celle d'une implantation CPU séquentielle faiblement optimisée. Le mémoire de thèse présenté est constitué d'un ensemble de neuf articles de revues internationales et d'actes de conférences internationales (le dernier étant en cours d'évaluation). Dans ces travaux sont abordés les problématiques liées tant à l'implantation mono-GPU de la LBM et à l'optimisation des accès en mémoire, qu'aux implantations multi-GPU et à la modélisation des communications inter-GPU et inter-nœuds. En complément, sont détaillées diverses extensions à la LBM indispensables pour envisager une utilisation en thermo-aéraulique des bâtiments. Les cas d'études utilisés pour la validation des codes permettent de juger du fort potentiel de cette approche en pratique. / With the advent of low-energy buildings, the need for accurate building performance simulations has significantly increased. However, for the time being, the thermo-aeraulic effects are often taken into account through simplified or even empirical models, which fail to provide the expected accuracy. Resorting to computational fluid dynamics seems therefore unavoidable, but the required computational effort is in general prohibitive. The joint use of innovative approaches such as the lattice Boltzmann method (LBM) and massively parallel computing devices such as graphics processing units (GPUs) could help to overcome these limits. The present research work is devoted to explore the potential of such a strategy. The lattice Boltzmann method, which is based on a discretised version of the Boltzmann equation, is an explicit approach offering numerous attractive features: accuracy, stability, ability to handle complex geometries, etc. It is therefore an interesting alternative to the direct solving of the Navier-Stokes equations using classic numerical analysis. From an algorithmic standpoint, the LBM is well-suited for parallel implementations. The use of graphics processors to perform general purpose computations is increasingly widespread in high performance computing. These massively parallel circuits provide up to now unrivalled performance at a rather moderate cost. Yet, due to numerous hardware induced constraints, GPU programming is quite complex and the possible benefits in performance depend strongly on the algorithmic nature of the targeted application. For LBM, GPU implementations currently provide performance two orders of magnitude higher than a weakly optimised sequential CPU implementation. The present thesis consists of a collection of nine articles published in international journals and proceedings of international conferences (the last one being under review). These contributions address the issues related to single-GPU implementations of the LBM and the optimisation of memory accesses, as well as multi-GPU implementations and the modelling of inter-GPU and internode communication. In addition, we outline several extensions to the LBM, which appear essential to perform actual building thermo-aeraulic simulations. The test cases we used to validate our codes account for the strong potential of GPU LBM solvers in practice.
14

Prominent microblog users prediction during crisis events : using phase-aware and temporal modeling of users behavior / Prédiction des utilisateurs primordiaux des microblogs durant les situations de crise : modélisation temporelle des comportements des utilisateurs en fonction des phases des évènements

Bizid, Imen 13 December 2016 (has links)
Durant les situations de crise, telles que les catastrophes, le besoin de recherche d’informations (RI) pertinentes partagées dans les microblogs en temps réel est inévitable. Cependant, le grand volume et la variété des flux d’informations partagées en temps réel dans de telles situations compliquent cette tâche. Contrairement aux approches existantes de RI basées sur l’analyse du contenu, nous proposons de nous attaquer à ce problème en nous basant sur les approches centrées utilisateurs tout en levant un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à la collection des données partagées par les utilisateurs à évaluer, 2) à la modélisation de leurs comportements, 3) à l’analyse des comportements, et 4) à la prédiction et le suivi des utilisateurs primordiaux en temps réel. Dans ce contexte, nous détaillons les approches proposées dans cette thèse afin de prédire les utilisateurs primordiaux qui sont susceptibles de partager les informations pertinentes et exclusives ciblées et de permettre aux intervenants d’urgence d’accéder aux informations requises quel que soit le format (i.e. texte, image, vidéo, lien hypertexte) et en temps réel. Ces approches sont centrées sur trois principaux aspects. Nous avons tout d’abord étudié l’efficacité de différentes catégories de mesures issues de la littérature et proposées dans cette thèse pour représenter le comportement des utilisateurs. En nous basant sur les mesures pertinentes résultant de cette étude, nous concevons des nouvelles caractéristiques permettant de mettre en évidence la qualité des informations partagées par les utilisateurs selon leurs comportements. Le deuxième aspect consiste à proposer une approche de modélisation du comportement de chaque utilisateur en nous basant sur les critères suivants : 1) la modélisation des utilisateurs selon l’évolution de l’évènement, 2) la modélisation de l’évolution des activités des utilisateurs au fil du temps à travers une représentation sensible au temps, 3) la sélection des caractéristiques les plus discriminantes pour chaque phase de l’évènement. En se basant sur cette approche de modélisation, nous entraînons différents modèles de prédiction qui apprennent à différencier les comportements des utilisateurs primordiaux de ceux qui ne le sont pas durant les situations de crise. Les algorithmes SVM et MOG-HMMs ont été utilisés durant la phase d’apprentissage. La pertinence et l’efficacité des modèles de prédiction appris ont été validées à l’aide des données collectées par notre système multi-agents MASIR durant deux inondations qui ont eu lieu en France et des vérités terrain appropriées à ces collections. / During crisis events such as disasters, the need of real-time information retrieval (IR) from microblogs remains inevitable. However, the huge amount and the variety of the shared information in real time during such events over-complicate this task. Unlike existing IR approaches based on content analysis, we propose to tackle this problem by using user-centricIR approaches with solving the wide spectrum of methodological and technological barriers inherent to : 1) the collection of the evaluated users data, 2) the modeling of user behavior, 3) the analysis of user behavior, and 4) the prediction and tracking of prominent users in real time. In this context, we detail the different proposed approaches in this dissertation leading to the prediction of prominent users who are susceptible to share the targeted relevant and exclusive information on one hand and enabling emergency responders to have a real-time access to the required information in all formats (i.e. text, image, video, links) on the other hand. These approaches focus on three key aspects of prominent users identification. Firstly, we have studied the efficiency of state-of-the-art and new proposed raw features for characterizing user behavior during crisis events. Based on the selected features, we have designed several engineered features qualifying user activities by considering both their on-topic and off-topic shared information. Secondly, we have proposed a phase-aware user modeling approach taking into account the user behavior change according to the event evolution over time. This user modeling approach comprises the following new novel aspects (1) Modeling microblog users behavior evolution by considering the different event phases (2) Characterizing users activity over time through a temporal sequence representation (3) Time-series-based selection of the most discriminative features characterizing users at each event phase. Thirdly, based on this proposed user modeling approach, we train various prediction models to learn to differentiate between prominent and non-prominent users behavior during crisis event. The learning task has been performed using SVM and MoG-HMMs supervised machine learning algorithms. The efficiency and efficacy of these prediction models have been validated thanks to the data collections extracted by our multi-agents system MASIR during two flooding events who have occured in France and the different ground-truths related to these collections.
15

Developing ultrasensitive and CMOS compatible ISFETs in the BEOL of industrial UTBB FDSOI transistors / Développement d'ISFET ultrasensibles et compatibles CMOS dans le BEOL des transistors industriels UTBB FDSOI

Ayele, Getenet Tesega 11 April 2019 (has links)
En exploitant la fonction d’amplification intrinsèque fournie par les transistors UTBB FDSOI, nous avons présenté des ISFET ultra sensibles. L'intégration de la fonctionnalité de détection a été réalisée en back end of line (BEOL), ce qui offre les avantages d'une fiabilité et d'une durée de vie accrues du capteur, d'une compatibilité avec le processus CMOS standard et d'une possibilité d'intégration d'un circuit diviseur capacitif. Le fonctionnement des MOSFETs, sans une polarisation appropriée de la grille avant, les rend vulnérables aux effets de grilles flottantes indésirables. Le circuit diviseur capacitif résout ce problème en polarisant la grille avant tout en maintenant la fonctionnalité de détection sur la même grille par un couplage capacitif au métal commun du BEOL. Par conséquent, le potentiel au niveau du métal BEOL est une somme pondérée du potentiel de surface au niveau de la grille de détection et de la polarisation appliquée au niveau de la grille de contrôle. Le capteur proposé est modélisé et simulé à l'aide de TCAD-Sentaurus. Un modèle mathématique complet a été développé. Il fournit la réponse du capteur en fonction du pH de la solution (entrée du capteur) et des paramètres de conception du circuit diviseur capacitif et du transistor UTBB FDSOI. Dans ce cas, des résultats cohérents ont été obtenus des travaux de modélisation et de simulation, avec une sensibilité attendue de 780 mV / pH correspondant à un film de détection ayant une réponse de Nernst. La modélisation et la simulation du capteur proposé ont également été validées par une fabrication et une caractérisation du capteur de pH à grille étendue avec validation de son concept. Ces capteurs ont été développés par un traitement séparé du composant de détection de pH, qui est connecté électriquement au transistor uniquement lors de la caractérisation du capteur. Ceci permet une réalisation plus rapide et plus simple du capteur sans avoir besoin de masques et de motifs par lithographie. Les capteurs à grille étendue ont présenté une sensibilité de 475 mV/pH, ce qui est supérieur aux ISFET de faible puissance de l'état de l’art. Enfin, l’intégration de la fonctionnalité de détection directement dans le BEOL des dispositifs FDSOI UTBB a été poursuivie. Une sensibilité expérimentale de 730 mV/pH a été obtenue, ce qui confirme le modèle mathématique et la réponse simulée. Cette valeur est 12 fois supérieure à la limite de Nernst et supérieure aux capteurs de l'état de l’art. Les capteurs sont également évalués pour la stabilité, la résolution, l'hystérésis et la dérive dans lesquels d'excellentes performances sont démontrées. / Exploiting the intrinsic amplification feature provided by UTBB FDSOI transistors, we demonstrated ultrahigh sensitive ISFETs. Integration of the sensing functionality was made in the BEOL which gives the benefits of increased reliability and life time of the sensor, compatibility with the standard CMOS process, and possibility for embedding a capacitive divider circuit. Operation of the MOSFETs without a proper front gate bias makes them vulnerable for undesired floating body effects. The capacitive divider circuit addresses these issues by biasing the front gate simultaneously with the sensing functionality at the same gate through capacitive coupling to a common BEOL metal. Therefore, the potential at the BEOL metal would be a weighted sum of the surface potential at the sensing gate and the applied bias at the control gate. The proposed sensor is modeled and simulated using TCAD-Sentaurus. A complete mathematical model is developed which provides the output of the sensor as a function of the solution pH (input to the sensor), and the design parameters of the capacitive divider circuit and the UTBB FDSOI transistor. In that case, consistent results have been obtained from the modeling and simulation works, with an expected sensitivity of 780 mV/pH corresponding to a sensing film having Nernst response. The modeling and simulation of the proposed sensor was further validated by a proof of concept extended gate pH sensor fabrication and characterization. These sensors were developed by a separated processing of just the pH sensing component, which is electrically connected to the transistor only during characterization of the sensor. This provides faster and simpler realization of the sensor without the need for masks and patterning by lithography. The extended gate sensors showed 475 mV/pH sensitivity which is superior to state of the art low power ISFETs. Finally, integration of the sensing functionality directly in the BEOL of the UTBB FDSOI devices was pursued. An experimental sensitivity of 730 mV/pH is obtained which is consistent with the mathematical model and the simulated response. This is more than 12-times higher than the Nernst limit, and superior to state of the art sensors. Sensors are also evaluated for stability, resolution, hysteresis, and drift in which excellent performances are demonstrated.
16

Prise en compte de l’usure dans la modélisation du comportement sous charge des engrenages roues et vis tangentes / Modelling the loaded behavior of worm gears, taking the wear into account

Jbily, Dalia 22 April 2016 (has links)
Les engrenages roues et vis sans fin sont une solution avantageuse pour transmettre le couple entre des axes perpendiculaires non concourants. Ces engrenages offrent une solution simple et efficace en terme de coût dans les applications de transmission de puissance, où un grand rapport de réduction est nécessaire, en comparaison avec les engrenages classiques à axes parallèles qui nécessitent normalement deux ou trois étapes pour obtenir les mêmes réductions avec une augmentation conséquente de complexité et du nombre de pièces. L’usure de surface est un des modes de défaillance observés dans la vie des engrenages roues et vis sans fin qui influe sur la portée de contact, les caractéristiques de transmission et le bruit résultant. La première étape de ces travaux est la mise au point d’un modèle numérique pour étudier le comportement quasi statique des engrenages roues et vis sans fin avec une roue en bronze et une vis en acier. Le modèle est basé sur la résolution des équations de compatibilité des déplacements ainsi que sur la méthode des coefficients d’influence. Les effets globaux de flexion et les effets locaux de contact ont été séparés. Les effets de contact ont été obtenus par la théorie de Boussinesq. Les coefficients de flexion sont estimés par la combinaison d’un calcul Éléments Finis et des fonctions d’interpolation, permettant d’une part de prendre en compte l’environnement de l'engrenage (la géométrie des arbres, des jantes et des voiles, l’emplacement des roulements,...) et d’autre part de réduire significativement les temps de calculs. Dans une seconde étape, une méthodologie est proposée pour modéliser l’usure de la surface de dent de la roue. Le modèle de contact quasi-statique de la répartition des charges est combiné avec un modèle d’usure d’Archard. Ce modèle suppose que la profondeur d’usure est directement proportionnelle à la pression de contact et à la distance de glissement et inversement proportionnelle à la dureté du matériau. Cette loi d’usure est modifiée pour prendre en compte l’influence des conditions de lubrification en utilisant un coefficient d’usure local, dépendant de l’épaisseur du film lubrifiant, rapportée à l’amplitude des rugosités des surfaces. L’enlèvement de matière par l’usure du flanc de la roue influe sur la répartition des pressions et donc les modifications de la géométrie des dents doivent être incluses dans la prédiction de l’usure. Le calcul des pressions de contact est ainsi mis à jour pour tenir compte des changements de géométrie. Enfin, pour valider le modèle développé des comparaisons du modèle avec des résultats expérimentaux issus de la bibliographie ont été effectuées. / Worm gears are one of the technical devices for transmitting torque between spatial crossed axes. They provide a simple and cost effective solution in power transmission applications, where a high reduction ratio is required. Comparable conventional parallel axis gearing would normally require two or three stages to achieve the same reduction, with a consequent increase in complexity and number of parts. Surface wear is one of the failure modes observed in life worm gear sets which affects the contact patterns, the other transmission characteristics and the resultant noise. The first step of this work is the development of a numerical model to study provide the quasi-static behavior of worm gears with bronze wheel and steel worm. The model is based on solving of the equation of displacement compatibility and the influence coefficient method. The global effects of bending and local effects of contact are separated. The contact effects are obtained with the theory of Boussinesq. Bending effects are estimated by the combination of one standard FEM computation and interpolation functions. These methods allow, on the one hand, to take into account the environment of the gear (shaft shape, rim, web, bearing location ...) and on the other to reduce significantly the computation time. In a second step, a methodology is proposed for predicting the wear of the wheel tooth surface. In this process, a quasi-static contact model of the load distribution is combined with Archard's wear model. This model assumes that the wear depth is directly proportional to the contact pressure and sliding distance and inversely proportional to the hardness of the material. The wear law is modified to take into account the influence of the lubrication conditions using a local wear coefficient, depending on the lubricant film thickness, relative to the amplitude of surface roughness. Removal of material by wear on the wheel flank affects the pressure distribution, therefore the changes in teeth must be included in the prediction of wear. The calculation of contact pressures must also be updated to take into account the modification of the gear flank geometry. The last step concerns the validation of the numerical. Comparisons have been carried out between the model results and experimental ones issued from the bibliography.
17

Water quality-based real time control of combined sewer systems / Gestion en temps réel des réseaux d’assainissement unitaires basée sur la qualité de l’eau

Ly, Duy Khiem 28 May 2019 (has links)
La gestion en temps réel (GTR) est considérée comme une solution économiquement efficace pour réduire les déversements par temps de pluie car elle optimise la capacité disponible des réseaux d'assainissement. La GTR permet d'éviter la construction de volumes de rétention supplémentaires, d'augmenter l'adaptabilité du réseau aux changements de politiques de gestion de l'eau et surtout d'atténuer l'impact environnemental des déversoirs d'orage. À la suite de l'intérêt croissant pour la GTR fondée sur la qualité de l'eau (QBR), cette thèse démontre une stratégie simple et efficace pour les charges polluantes déversées par temps de pluie. La performance de la stratégie QBR, basée sur la prédiction des courbes masse-volume (MV), est évaluée par comparaison avec une stratégie typique de GTR à base hydraulique (HBR). Une étude de validation de principe est d'abord réalisée sur un petit bassin versant de 205 ha pour tester le nouveau concept de QBR en utilisant 31 événements pluvieux sur une période de deux ans. Par rapport à HBR, QBR offre une réduction des charges déversées pour plus d'un tiers des événements, avec des réductions de 3 à 43 %. La stratégie QBR est ensuite mise en oeuvre sur le bassin versant de Louis Fargue (7700 ha) à Bordeaux, France et comparée à nouveau à la stratégie HBR. En implémentant QBR sur 19 événements pluvieux sur 15 mois, ses performances sont constantes et apportent des avantages précieux par rapport à HBR, 17 des 19 événements ayant une réduction de charge variant entre 6 et 28.8 %. La thèse évalue en outre l'impact de l'incertitude de prédiction de la courbe MV (due à l'incertitude de prédiction du modèle) sur la performance de la stratégie QBR, en utilisant un événement pluvieux représentatif. La marge d'incertitude qui en résulte est faible. En outre, l'étude de sensibilité montre que le choix de la stratégie QBR ou HBR doit tenir compte des dimensions réelles des bassins et de leur emplacement sur le bassin versant. / Real time control (RTC) is considered as a cost-efficient solution for combined sewer overflow (CSO) reduction as it optimises the available capacity of sewer networks. RTC helps to prevent the need for construction of additional retention volumes, increases the network adaptability to changes in water management policies, and above all alleviates the environmental impact of CSOs. Following increasing interest in water quality-based RTC (QBR), this thesis demonstrates a simple and nothing-to-lose QBR strategy to reduce the amount of CSO loads during storm events. The performance of the QBR strategy, based on Mass-Volume (MV) curves prediction, is evaluated by comparison to a typical hydraulics-based RTC (HBR) strategy. A proof-of-concept study is first performed on a small catchment of 205 ha to test the new QBR concept using 31 storm events during a two-year period. Compared to HBR, QBR delivers CSO load reduction for more than one third of the events, with reduction values from 3 to 43 %. The QBR strategy is then implemented on the Louis Fargue catchment (7700 ha) in Bordeaux, France and similarly compared with the HBR strategy. By implementing QBR on 19 storm events over 15 months, its performance is consistent, bringing valuable benefits over HBR, with 17 out of 19 events having load reduction varying between 6 and 28.8 %. The thesis further evaluates the impact of MV curve prediction uncertainty (due to model prediction uncertainty) on the performance of the QBR strategy, using a representative storm event. The resulting range of uncertainty is limited. Besides, results of the sensitivity study show that the choice of the QBR or HBR strategy should take into account the current tank volumes and their locations within the catchment.
18

Semi-analytical modeling of damage under contact loading : Application to heterogeneous materials / Modélisation semi-analytique des dommages sous charge de contact : Application aux matériaux hétérogènes

Beyer, Thibault 28 June 2019 (has links)
Les pieds d’aubes de soufflantes de turboréacteurs étant soumis à des sollicitations de type fretting, l’introduction de matériaux composites dans la nouvelle génération de moteur d’avion a rendu nécessaire le développement d’outils permettant de modéliser le contact entre des matériaux hétérogènes. En particulier, le comportement tribologique et l’endommagement de ces matériaux est encore mal compris. La mise en place de méthodes numériques capable de prédire les endommagements dans le contact permettrait de mieux prédire la durée de vie des pièces en service et de garantir la sécurité des passagers. Cette thèse porte sur le développement de méthodes semi-analytiques pour la modélisation de l’endommagement dans des conditions de fretting et de roulement. / The blade/disk interface in turbofan is subject to fretting loading. Fan blade of the new generation of aircraft engines are made of woven composite materials. The introduction of these new kind of materials create the need for a new numerical tool able to simulate the contact between heterogeneous materials. The tribological behavior and the damage mechanism associated with these kind of material are still not well understood. The developpment of new numerical tool able to model the damage in the contact area would allow to predict the life of engines parts and to guarantee the security of passengers. This PhD is about the developpment of semi-analytical methods for modeling the damage in fretting and rolling contact conditions with some applications to heterogeneous materials.

Page generated in 0.1283 seconds