• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 17
  • 1
  • Tagged with
  • 93
  • 93
  • 50
  • 29
  • 25
  • 22
  • 18
  • 12
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Primary school buildings renovation in cold climates : optimizing window size and opening for thermal comfort, indoor air quality and energy performance

Darvishi Alamdari, Pourya 30 November 2022 (has links)
Dans les bâtiments scolaires existants, la ventilation naturelle constitue souvent l'unique solution pour le contrôle de la qualité de l'air intérieur et le confort thermique. Cependant, de nombreuses études montrent que les salles de classe sont insuffisamment ventilées et entrainent des problèmes de qualité de l'environnement intérieur. Plusieurs études ont été menées sous différents climats, mais peu dans des climats très froids où l'usage de la ventilation naturelle peut entraîner une surconsommation énergétique. Cette recherche vise à étudier l'impact de la ventilation naturelle sur le confort thermique, la qualité de l'air intérieur et l'efficacité énergétique des bâtiments scolaires dans les climats froids. Divers paramètres architecturaux associés aux fenêtres ont été analysés pour une classe type du corpus Schola. Dans cette recherche, l'orientation des fenêtres, leur taille, leur position, la taille et la position de l'ouverture des fenêtres, le programme de ventilation naturelle et les méthodes de ventilation naturelle (unilatérale et transversale) ont été simulés numériquement avec le logiciel Ladybug Tools. Les résultats des simulations produisent données numériques annuelles de température, humidité, température radiante moyenne, concentration de CO₂, pour traiter les conditions thermiques et de Qualité de l'Air Intérieur QAI dans les bâtiments scolaires et de leur impact sur la performance énergétique. L'analyse des résultats utilise les modèles standards 55 ASHRAE, Predicted Mean Vote PMV et extended Adaptive Thermal Comfort ATC pour l'analyse du confort thermique, la Santé Canada et le Centre de collaboration nationale en santé environnementale, la Federation of European Heating, Ventilation and Air Conditioning Associations REHVA pour le contrôle de la COVID-19. Les résultats montrent que l'ouverture répétitive des fenêtres de courte durée pourrait être une solution optimale en termes de confort thermique, de qualité de l'air intérieur et d'efficacité énergétique. Étant donné que la plupart de ces bâtiments scolaires ne sont pas équipés de systèmes CVC et qu'ils ne disposent que de systèmes de chauffage classiques, le manque de qualité de l'air intérieur est un problème inévitable. La solution de la ventilation naturelle pourrait compenser le manque de qualité de l'air intérieur et le coût de la rénovation du système CVC ; cependant, elle devrait être appliquée avec précision pendant les périodes hivernales pour éviter un inconfort thermique et une surconsommation énergétique. / In existing school buildings in Quebec, natural ventilation is often the only solution for thermal comfort and indoor air quality control. However, many studies show insufficiently ventilated classrooms, leading to indoor environment quality problems. Where the arbitrary use of natural ventilation can lead to energy over consumption, several studies have been conducted on the role of natural ventilation on this issue, but few of them are addressed in very cold climates. This research investigates the impact of natural ventilation on thermal comfort, indoor air quality, and energy efficiency of school buildings in cold climates. Various architectural parameters associated with windows were analyzed for a typical classroom in the Schola.ca corpus. Since most of these school buildings are not equipped with HVAC systems and have only infrastructures for conventional heating systems, the lack of indoor air quality is an inevitable problem. In this research, the windows' orientation, position, opening size, and opening position, natural ventilation program, and window-opening modes (single-sided and cross-window openings) were numerically simulated with the Ladybug Tools software. The software outputs consist of annual numerical data (temperature, humidity, mean radiant temperature, CO₂ concentration, energy, and thermal) representing thermal comfort and IAQ performances in school buildings and their impacts on energy consumption efficiency. In analyzing the result, several standards and guidelines were used, including ASHRAE 55 standard models (Predicted Mean Vote PMV and Adaptive Thermal Comfort models ATC for thermal performance), the Health Canada and National Collaboration Centre for Environmental Health guideline, and the Federation of European Heating, Ventilation and Air Conditioning Associations REHVA to evaluate the building thermal and IAQ performances compared to there commended benchmark models. The results show that repetitive short-term opening of the windows could be an optimal solution in terms of thermal comfort, indoor air quality, and heating energy consumption efficiency. Natural ventilation solutions could retrieve the lack of indoor air quality and the cost of HVAC system renovation; however, they should be only applied during cold seasons to avoid thermal discomfort and energy over consumption.
82

Evaluation and calibration of the CroBas-PipeQual model for Jack Pine (Pinus banksiana Lamb.) using Bayesian melding : hybridization of a process-based forest growth model with empirical yield curves

Ewen, Stephanie 19 April 2018 (has links)
CroBas-PipeQual a été élaboré pour étudier les effets de croissance des arbres sur la qualité du bois. Ainsi, il s’agit d’un modèle d’intérêt pour maximiser la valeur des produits extraits des forêts. Nous avons évalué qualitativement une version de CroBas-PipeQual calibrée pour le pin gris (Pinus banksiana Lamb.) de façon à vérifier l’intérêt de l’utiliser comme outil de planification forestière. Par la suite, nous avons fait une analyse de sensibilité et une calibration bayesienne à partir d’une table de production utilisée au Québec. Les principales conclusions sont: 1. Les prédictions de hauteur sont les plus sensibles aux intrants et aux paramètres liés à la photosynthèse; 2. La performance de CroBas est améliorée en tenant compte de la relation observée entre deux paramètres utilisés pour estimer la productivité nette et l'indice de qualité de station; et 3. CroBas requiert d’autres améliorations avant de pouvoir être utilisé comme outil de planification. / CroBas-PipeQual is a process-based forest growth model designed to study foliage development and how growth processes relate to changes in wood quality. As such, CroBas-PipeQual is of interest as a component model in a forest level decision support model for value assessment. In this thesis, the version of CroBas-PipeQual calibrated for jack pine (Pinus banksiana Lamb.) in Québec, Canada was qualitatively evaluated for use in forest management decision-making. Then, sensitivity analyses and Bayesian melding were used to create and calibrate a stand-level version of CroBas-PipeQual to local empirical height yield models in a hybrid-modelling approach. Key findings included: 1. Height predictions were most sensitive to input values and to parameters related to net photosynthesis; 2. Model performance was improved by varying two net-productivity parameters with site quality; and 3. Model performance needs further improvement before CroBas-PipeQual can be used as a component of a forest-management decision tool.
83

Modélisation des pertes de charge en biofiltration

Perron, Jean-Michel 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.
84

Développement d’outils de simulation numérique pour l’élastodynamique non linéaire : application à l’imagerie acoustique de défauts à l’aide de transducteur à cavité chaotique / Development of numerical simulation method for nonlinear elastodynamic : application to acoustic imaging of defect with the help of cavity chaotic transducer

Li, Yifeng 09 July 2009 (has links)
Dans cette thèse nous proposons de développer un système d’imagerie ultrasonore innovante de micro- défauts basé sur l’utilisation conjointe de techniques d’acoustique non linéaire et du concept de "transducteur à cavité chaotique". Ce transducteur correspond à la combinaison d’une céramique piézoélectrique collée sur une cavité de forme chaotique et du principe de retournement temporel. La faisabilité et les performances de ce nouveau système sont explorées par des simulations numériques. Des paramètres optimaux d’utilisation pour une implémentation expérimentale sont proposés. Une grande partie des travaux menés dans le cadre de cette thèse se concentre sur le développement d’outils numériques permettant l’amélioration de telles techniques d’imagerie. Un schéma d’éléments finis de type Galerkin Discontinu (GD) est étendu à l’élastodynamique non linéaire. Un type de zone absorbante parfaitement adaptée, appelée "Nearly Perfectly Matched Layer" (NPML) a aussi été développé. Dans le cas de matériaux orthotropes, comme des problèmes de stabilité apparaissent, un mélange de NPML et de zone atténuante, dont on contrôle la proportion respective, est introduit afin de stabiliser les NPML. Une validation expérimentale du concept de "transducteur à cavité chaotique" pour la focalisation dans un milieu solide, réverbérant ou non, en utilisant une seule source est réalisée. Les méthodes de retournement temporel et de filtre inverse sont présentées et comparées. La démonstration expérimentale qu’un "transducteur à cavité chaotique" peut être utilisé conjointement avec les méthodes d’inversion d’impulsion afin de réaliser une image de non linéarités localisées est présentée / In this thesis we propose the development of an innovative micro-damage imaging system based on a combination of Nonlinear Elastic Wave Spectroscopy techniques and “chaotic cavity transducer” concept. It consists of a combination of a PZT ceramic glued to a cavity of chaotic shape with the time reversal principle. The feasibility and capabilities of these new ideas is explored by numerical simulations, and optimal operational parameters for experimental implementation are suggested based on the modelling support. A large part of the research work conducted in this thesis is concentrated on the development of numerical simulation tools to help the improvement of such nonlinear imaging methods. A nodal Discontinuous Galerkin Finite Element Method (DG-FEM) scheme is extended to nonlinear elasto-dynamic including source terms. A Perfectly Matched Layer absorbing boundary condition well adapted to the DG-FEM scheme, called Nearly Perfectly Matched Layer (NPML), is also developed. In the case of orthotropic material as stability problems appear, a mixture of NPML and sponge layer, with a controllable ratio of these two kinds of absorbing layers, is introduced. The experimental validation of “chaotic cavity transducer” to focalize in reverberant and non-reverberant solid media with only one source is made. Classical time reversal, inverse filter and 1 Bit time reversal process are discussed and compared. The experimental demonstration of the use of a “chaotic cavity transducer”, in combination with the pulse inversion and 1-bit methods, to obtain an image of localized nonlinearity is made. This opens the possibility for high resolution imaging of nonlinear defects
85

Modélisation multirésolution et multiformalisme de l'activité électrique cardiaque

Defontaine, Antoine 08 February 2006 (has links) (PDF)
Une méthode originale de modélisation de l'organe coeur complet basée sur une considération multirésolution et multiformalisme de l'activité électrique cardiaque est proposée.<br />Les notions de cardiologie et d'électrophysiologie ainsi qu'une synthèse de modèles du système cardiovasculaire sont présentées dans la partie 1.<br />La partie 2 reprend les contributions du travail qui concernent:<br />– la proposition d'un cadre formel à la modélisation prenant en compte les exigences de la multirésolution et une volonté de structuration des outils utilisés pour une meilleure portabilité;<br />– la proposition d'une librairie générique de modélisation et simulation multiformalisme développée sous forme objet et permettant une définition standardisée des modèles et simulateurs;<br />– l'intérêt de la librairie est illustré sur des applications physiologiques et cliniques.<br />Un chapitre prospectif et présentant une réflexion pour une considération multirésolution clôt ce mémoire et ouvre des perspectives intéressantes.
86

Génération rapide de signaux radar d'environnements complexes pour la simulation de systèmes imageurs SAR

Khwaja, Shaharyar 25 March 2008 (has links) (PDF)
Cette thèse traite de la simulation rapide de données SAR au moyen de méthodes de synthèse inverse. Pour ce faire, les algorithmes omega-k et chirp scaling inverses sont développés pour le cas d'une trajectoire lineaire. Une transformation est proposée, qui permet de produire des données brutes d'un objet mobile à partir d'image SAR d'un objet statique opérant dans le domaine spectral. Les déviations non-linéaires de trajectoire du capteur sont aussi prises en considération en simulant des données partiellement dans le domaine temporel avec l'approximation d'un faisceau d'antenne étroit en largeur ou avec l'approximation d'une largeur de bande réduite. Toutes ces techniques sont analysées et les résultats sont comparés avec ceux d'un simulateur temporel pris comme réfèrence. Les données brutes sont simulées pour une scène complexe comportant un ou plusiers bâtiments placés au sein d'un environnement naturel surfacique et ayant une réponse anisotrope. Finalement, la simulation d'images et de données interférometriques est abordée.
87

Progressive collapse simulation of reinforced concrete structures: influence of design and material parameters and investigation of the strain rate effects

Santafe Iribarren, Berta 17 June 2011 (has links)
This doctoral research work focuses on the simulation of progressive collapse of reinforced concrete structures. It aims at contributing to the ‘alternate load path’ design approach suggested by the General Services Administration (GSA) and the Department of Defense (DoD) of the United States, by providing a detailed yet flexible numerical modelling tool. <p><p>The finite element formulation adopted here is based on a multilevel approach where the response at the structural level is naturally deduced from the behaviour of the constituents (concrete and steel) at the material level. One-dimensional nonlinear constitutive laws are used to model the material response of concrete and steel. These constitutive equations are introduced in a layered beam approach, where the cross-sections of the structural members are discretised through a finite number of layers. This modelling strategy allows deriving physically motivated relationships between generalised stresses and strains at the sectional level. Additionally, a gradual sectional strength degradation can be obtained as a consequence of the progressive failure of the constitutive layers. This means that complex nonlinear sectional responses exhibiting softening can be obtained even for simplified one dimensional constitutive laws for the constituents.<p><p>This numerical formulation is used in dynamic progressive collapse simulations to study the structural response of a multi-storey planar frame subject to a sudden column loss. The versatility of the proposed methodology allows assessing the influence of the main material and design parameters in the structural failure. Furthermore, the effect of particular modelling options of the progressive collapse simulation technique, such as the column removal time or the strategy adopted for the structural verification, can be evaluated.<p><p>The potential strain rate effects on the structural response of reinforced concrete frames are also investigated. To this end, a strain rate dependent material formulation is developed, where the rate effects are introduced in both the concrete and steel constitutive response. These effects are incorporated at the structural level through the multilayered beam approach. In order to assess the degree of rate dependence in progressive collapse, the results of rate dependent simulations are presented and compared to those obtained via the rate independent approach. The influence of certain parameters on the rate dependent structural failure is also studied.<p><p>The differences obtained in terms of progressive failure degree for the considered parametric variations and modelling options are analysed and discussed. The parameters observed to have a major influence on the structural response in a progressive collapse scenario are the ductility of the steel bars, the degree of symmetry and/or continuity of the reinforcement and the column removal time. The results also depend on the strategy considered (GSA vs DoD). The strain rate effects are confirmed to play a significant role in the failure pattern. Based on these observations, general recommendations for the design of progressive collapse resisting structures are finally derived.<p><p><p><p><p>L’effondrement progressif est un sujet de recherche qui a connu un grand développement suite aux événements désastreux qui se sont produits au cours des dernières décennies. Ce phénomène est déclenché par la défaillance soudaine d’un nombre réduit d’éléments porteurs de la structure, qui provoque une propagation en cascade de l’endommagement d’élément en élément jusqu’à affecter une partie importante, voire la totalité de l’ouvrage. Le résultat est donc disproportionné par rapport à la cause. La plupart des codes de construction ont inclus des prescriptions pour le dimensionnement des structures face aux actions accidentelles. Malheureusement, ces procédures se limitent à fournir des ‘règles de bonne pratique’, ou proposent des calculs simplifiés se caractérisant par un manque de détail pour permettre leur mise en oeuvre.<p><p>Cette thèse de doctorat intitulée Simulation de l’Effondrement Progressif des Structures en Béton Armé: Influence des Paramètres Materiaux et de Dimensionnement et Investigation des Effets de Vitesse a pour but de contribuer à la simulation numérique de l’effondrement progressif des structures en béton armé. Une formulation aux éléments finis basée sur une approche multi-échelles a été développée, où la réponse à l’échelle structurale est déduite à partir de la réponse au niveau matériel des constituants (le béton et l’acier). Les sections des éléments structuraux sont divisées en un nombre fini de couches pour lesquelles des lois constitutives unidimensionnelles sont postulées. Cet outil permet une dégradation graduelle de la résistance des sections en béton armé suite à la rupture progressive des couches. Des comportements complexes au niveau des points de Gauss peuvent être ainsi obtenus, et cela même à partir de lois unidimensionnelles pour les constituants.<p><p>Cette formulation est utilisée pour la simulation de l’effondrement progressif d’ossatures 2D, avec prise en compte des effets dynamiques. La versatilité de la présente stratégie numérique permet d’analyser l’influence de différents paramètres matériaux et de dimensionnement, ainsi que d’autres paramètres de modélisation, sur la réponse structurale face à la disparition soudaine d’une colonne.<p><p>Les effets de la vitesse de déformation sur le comportement des matériaux constituants est aussi un sujet d’attention dans ce travail de recherche. Des lois constitutives prenant en compte ces effets sont postulées et incorporées au niveau structural grâce à l’approche multi-couches. Le but est d’étudier l’influence des effets de la vitesse de chargement sur la réponse structurale face à la disparition d’un élément porteur. Les resultats obtenus à l’aide de cette approche avec effets de vitesse sont comparés à ceux obtenus avec des lois indépendantes de la vitesse.<p><p>Les différences dans la réponse à la disparition d’une colonne sont analysées pour les variations paramétriques étudiées. Les paramètres ayant une influence importante sont notamment: la ductilité des matériaux constituants et la disposition et/ou la symétrie des armatures. Les effets de vitesse sont également significatifs. Sur base de ces résultats, des recommandations sont proposées pour le dimensionnement et/ou l’analyse des structures face à l’effondrement progressif.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
88

Evidence of deep hydraulically active fractures in post-glacial marine clays (Quebec, Canada) : implications for groundwater flow dynamics and slope stability

Ospina Llano, Julian Andres 18 October 2022 (has links)
Il est habituellement supposé que les dépôts d'argile marine postglaciaires du Québec sont généralement intacts sous une croûte fracturée (3 à 5 m de profondeur). Cependant, les données de 210 piézomètres ont démontré des variations grandes et rapides des charges hydrauliques à de grandes profondeurs, et un synchronisme entre les piézomètres dans le même nid. Ces comportements ne sont pas compatibles avec les propriétés hydrauliques des argiles intactes, mais sont plutôt les indicateurs de la présence de fractures profondes hydrauliquement actives. Afin de tester l'hypothèse de la présence de fractures, trois indicateurs ont été analysés dans tous les piézomètres du réseau de surveillance du MTQ : 1) une grande variation de la charge hydraulique, 2) une forte corrélation et 3) de faibles décalages temporels. En outre, l'impact potentiel de ces fractures sur l'écoulement des eaux souterraines et la stabilité des pentes est exploré. Pour ce faire, les données de terrain sont comparées à des modèles transitoires et permanents qui présentent et non des fractures. Deux géométries de pente et différents scénarios de fractures ont été considérés. Par la suite, les résultats de la modélisation hydrogéologique ont été importés dans un modèle de stabilité des pentes pour définir l'impact des changements de charge hydraulique causés par les fractures sur la stabilité des pentes. L'analyse des données mettent en évidence des fractures hydrauliquement actives jusqu'à 17 m de profondeur. Les résultats de la simulation démontrent quant à eux que les scénarios avec des fractures représentent mieux les données de terrain. Les fractures augmentent la charge hydraulique quand l'eau pénètre dans les sols à travers les fractures et se diffuse ensuite dans la matrice du sol. De plus, la charge hydraulique est réduite quand l'eau s'écoule à travers les fractures dans la face de la pente. D'un point de vue hydrogéologique, les fractures peuvent par conséquent améliorer ou réduire la stabilité des pentes dépendant du système d'écoulement. Notons que l'impact mécanique des fractures n'a pas été pris en compte. / To date it is usually assumed that post-glacial marine clay deposits of Quebec are generally intact below a fractured crust (3 to 5 m depth). However, data from 210 piezometers have shown large and rapid variations in hydraulic heads at great depths, and synchronism between the piezometers at different depths in the same nest. This behavior is not compatible with the hydraulic properties of intact clays, but rather are signs of the presence of deep hydraulically active fractures. To test the hypothesis of presence of fractures, three signs of hydraulically active fractures were analysed in all piezometers nest of the MTQ monitoring network: 1) large variation in the hydraulic head, 2) high correlation and 3) small time lags. In addition, the potential impact of these fractures on groundwater flow dynamics and slope stability are explored by comparing field data with transient and steady-state groundwater models with and without fractures. Two slope geometries that exhibit contrasting groundwater flows and different fracture scenarios were considered. Then, results of the hydrogeological modelling were imported into a slope stability model to delineate the impact of the hydraulic head changes due to the fractures on slope stability. Analysis of the MTQ monitoring network data shows evidence of hydraulically active fractures below the crust up to 17 m depth. The simulation results show that the scenarios with fractures better represent the field data. Fractures increase the hydraulic head when water enters the soils through the fractures which then dissipates by hydraulic diffusion into the soil matrix, and is reduced when water flows out through the fractures at the slope face. Therefore, depending on the groundwater flow system, from a hydrogeological perspective, fractures could improve or reduce the slope stability. It should be noted that the mechanical impact of the fractures are not considered.
89

Étude de l'effet de la vitesse de déformation sur un matériau composite tissé carbone-époxyde

Vachon-Joannette, Philippe 07 June 2024 (has links)
Ce mémoire s'inscrit dans un projet de recherche qui vise à modéliser un matériau composite tissé taffetas dans le cas d'un écrasement. Les industriels sont intéressés à comprendre les mécanismes d'endommagement des matériaux composites et avoir les différents paramètres mécaniques pour faire une modélisation précise qui tend à représenter le mieux possible le comportement de ces matériaux. Il s'agit d'un composite tissé taffetas stratifié à renforts de fibres de carbone et d'une matrice polymérique en époxyde. Des tests sont effectués en quasi-statique et en dynamique afin d'obtenir les propriétés mécaniques dans les directions principales du matériau. Des tests dans le plan, hors plan et en cisaillement ont été effectués afin de pouvoir modéliser le composite en trois dimensions. De plus, le projet vise à développer des outils qui permettent d'avoir des instruments précis pour la mesure de la force et de la déformation lors d'un test d'impact. De nombreuses méthodes ont été développées pour améliorer la mesure de la déformation et du déplacement en utilisant une caméra haute vitesse. Ensuite, une analyse fréquentielle des montages en dynamique permet de mieux cerner le bruit enregistré durant ces tests et d'utiliser un filtre adéquat pour limiter ces vibrations dans les mesures. Des tests ont confirmé la précision des méthodes développées et sont utilisés pour obtenir les propriétés mécaniques du matériau. En résumé, il semble que certaines directions soient plus influencées par la vitesse de déformation. Les propriétés en traction et en compression hors plan ainsi qu'en cisaillement dans le plan et hors plan varient lors d'un impact. Finalement, un modèle de matériau est implanté dans ABAQUS Explicit pour améliorer la précision des simulations dans le cas d'un chargement de cisaillement dans le plan. Le modèle permet de bien prédire le comportement en cisaillement dans le domaine élastique et lors de l'endommagement. / This thesis is part of a research project aiming to model a plain weave composite material during a crash event. Industrial partners are interested in understanding the damage mechanisms of composite materials and identifying different mechanical parameters to carry out precise modelling to represent the behaviour of this material. The studied material is a laminated plain weave made from carbon fibres and epoxy polymer matrix. Tests are performed in quasi-static and dynamic in order to obtain the mechanical properties in the main directions of the material. In-plane, out-of-plane and shear properties are identified to model the composite in three dimensions. Furthermore, the project aims to develop tools providing precise instruments for load and strain measurements during impact. Many methods have been developed to improve the accuracy of strain and displacement measurements using a high-speed camera. Moreover, a frequency analysis of the dynamic setups is performed to understand the noise acquired during testing and to use an appropriate filter to limit these vibrations in the measurements. Tests have confirmed the accuracy of the developed methods and are used to obtain the mechanical properties of the material. In summary, it appears that certain directions are dependent on the strain rate. Out-of-plane tension and compression as well as the in-plane and out-of-plane shear properties are different during a dynamic load. Finally, a material model is developed in ABAQUS Explicit to improve the accuracy of simulations for in-plane shear loading. The model predicts the shear behaviour in the elastic region and during the damage evolution.
90

Conception d'un modèle de simulation pour évaluer les effets de la coordination d'un réseau de cours à bois

Khayati, Rami 19 March 2023 (has links)
Les plateformes logistiques jouent un rôle important dans le bon fonctionnement d'une chaine de valeur, en assurant une fluidité des flux entre les différentes unités d'affaires. Dans le secteur forestier, une cour à bois est un lieu où le bois est concentré et entreposé de façon temporaire, dans le but d'améliorer l'efficacité du transport tout en réduisant les charges liées au stockage et à l'approvisionnement (Brotherton et al., 2017). De nos jours, plusieurs entreprises rivalisent pour le développement et l'amélioration de la planification du système d'approvisionnement forestier. Cette planification nécessite la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. En effet, dans les forêts naturelles comme celles du Québec, les opérations de triage et de gestion des flux sont complexes, étant donné la grande diversité et qualité des essences disponibles. De plus, les grandes distances entre la ressource forestière et les unités responsables de sa transformation entraînent des coûts de transport significatifs. Cependant, les cours à bois ont jusqu'à maintenant été peu exploitées comme plateforme logistique apte à mieux coordonner la chaine de valeur forestière et à assurer l'affectation de la bonne ressource à la bonne unité de transformation. Ce projet vise à analyser comment la coordination d'un ensemble de cours à bois et la connaissance de l'état des stocks de chacune d'elle peuvent contribuer à réduire les distances en transport parcourues de même qu'à mieux gérer les stocks aux cours, tout en répondant correctement aux besoins de scieries. Pour ce faire, une étude de cas a été réalisée, comprenant trois cours à bois ainsi que trois scieries spécialisées dans la transformation de billots allant de 8 à 18 pieds de longueur. Un modèle de simulation a été mis sur pied pour représenter un tel réseau, reproduire l'état actuel de son pilotage et tester diverses stratégies de coordination des activités d'approvisionnement et de transport. Les résultats ont démontré que certaines stratégies permettent de réduire les distances parcourues sans nuire au fonctionnement de la chaîne de valeur. De plus, grâce au modèle de simulation développé, le suivi en temps réel des indicateurs de performance des cours à bois, tels que l'état des stocks, le taux d'occupation des cours, le nombre de camions en attente et le temps d'attente aux cours, devient possible. Ainsi, ce modèle pourrait servir aux gestionnaires comme outil de prévision de l'approvisionnement sur un horizon de 6 mois. / Logistics hubs play an important role in the good functioning of a value chain by ensuring a fluid flow between the different business units. In the forestry sector, a log yard is a place where wood is concentrated and stored temporarily, with the aim of improving transportation efficiency while reducing its costs (Brotherton & Trzcianowska, 2017). Nowadays, many companies aim to design and develop different strategies for efficient planning of the forest supply system. This planning requires the consideration of several factors that operate in an unstable context. Indeed, in natural forests such as those of Quebec, sorting and flow management operations are complex, given the great diversity and quality of available species. In addition, the long distances between the forest resource and the units responsible for its transformation result in significant transportation costs. However, log yards have so far been little exploited as a logistical platform to better coordinate the forest value chain and ensure the allocation of the right resource to the right processing unit. This project aims at analyzing how the coordination of a group of log yards and the knowledge of the inventory status of each of them can contribute to reduce transportation distances and to better manage the inventory at the yards, while properly meeting the needs of sawmills. To do this, a case study was conducted involving three log yards and three sawmills specializing in processing logs ranging from 8 to 18 feet in length. A simulation model was developed to represent such a network, to reproduce its current state of operation and to test various strategies for coordinating supply and transportation activities. The results showed that some strategies could reduce the distance travelled without affecting the functioning of the value chain. In addition, thanks to the simulation model developed, real-time monitoring of log yard performance indicators, such as inventory status, yard occupancy, number of trucks waiting and waiting time at the yards, becomes possible. Thus, this model could be used by managers as a tool to forecast supply over a 6-month horizon.

Page generated in 0.1423 seconds