• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes

Sid-Ali, Ahmed 22 February 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles. / This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
182

Finding optimal paths on dynamic road networks

Bergeron Guyard, Alexandre 13 April 2018 (has links)
Ce document examine différentes méthodes pour calculer des chemins optimaux sur des graphes dynamiques. Deux grandes approches sont comparées: l’approche déterministe et l’approche probabiliste. L’approche déterministe prend pour acquise une certaine connaissance préalable des changements à venir dans l’environnement. L’approche probabiliste tente de modéliser et traiter l’incertitude. Une variante dynamique de l’algorithme de Dijkstra est détaillée dans le contexte déterministe. Les paradigmes des Markov Decision Processes (MDP) et Partially Observable Markov Decision Processes sont explorés dans le cadre du problème probabiliste. Des applications et mesures sont présentées pour chaque approche. On constate une relation inverse entre la calculabilité des approches proposées et leur potentiel d’application pratique. L’approche déterministe représente une solution très efficace à une version simplifiée du problème. Les POMDP s’avèrent un moyen théorique puissant dont l’implantation est impossible pour des problèmes de grande taille. Une alternative est proposée dans ce mémoire à l’aide des MDP. / This document examines different methods to compute optimal paths on dynamic graphs. Two general approaches are compared: deterministic and probabilistic. The deterministic approach takes for granted knowledge of the environment’s future behaviour. The probabilistic approach attempts to model and manage uncertainty. A dynamic version of Dijkstra’s algorithm is presented for the deterministic solution. Markov Decision Processes and Partially Observable Markov Decision Processes are analysed for the probabilistic context. Applications and measures of performance are given for each approach. We observe a reverse relationship between computability and applicability of the different approaches. Deterministic approaches prove a fast and efficient way to solve simpler versions of the problem. POMDPs are a powerful theoretical model that offers little potential of application. An alternative is described through the use of MDPs.
183

Learning geometric and lighting priors from natural images

Hold-Geoffroy, Yannick 20 September 2018 (has links)
Comprendre les images est d’une importance cruciale pour une pléthore de tâches, de la composition numérique au ré-éclairage d’une image, en passant par la reconstruction 3D d’objets. Ces tâches permettent aux artistes visuels de réaliser des chef-d’oeuvres ou d’aider des opérateurs à prendre des décisions de façon sécuritaire en fonction de stimulis visuels. Pour beaucoup de ces tâches, les modèles physiques et géométriques que la communauté scientifique a développés donnent lieu à des problèmes mal posés possédant plusieurs solutions, dont généralement une seule est raisonnable. Pour résoudre ces indéterminations, le raisonnement sur le contexte visuel et sémantique d’une scène est habituellement relayé à un artiste ou un expert qui emploie son expérience pour réaliser son travail. Ceci est dû au fait qu’il est généralement nécessaire de raisonner sur la scène de façon globale afin d’obtenir des résultats plausibles et appréciables. Serait-il possible de modéliser l’expérience à partir de données visuelles et d’automatiser en partie ou en totalité ces tâches ? Le sujet de cette thèse est celui-ci : la modélisation d’a priori par apprentissage automatique profond pour permettre la résolution de problèmes typiquement mal posés. Plus spécifiquement, nous couvrirons trois axes de recherche, soient : 1) la reconstruction de surface par photométrie, 2) l’estimation d’illumination extérieure à partir d’une seule image et 3) l’estimation de calibration de caméra à partir d’une seule image avec un contenu générique. Ces trois sujets seront abordés avec une perspective axée sur les données. Chacun de ces axes comporte des analyses de performance approfondies et, malgré la réputation d’opacité des algorithmes d’apprentissage machine profonds, nous proposons des études sur les indices visuels captés par nos méthodes. / Understanding images is needed for a plethora of tasks, from compositing to image relighting, including 3D object reconstruction. These tasks allow artists to realize masterpieces or help operators to safely make decisions based on visual stimuli. For many of these tasks, the physical and geometric models that the scientific community has developed give rise to ill-posed problems with several solutions, only one of which is generally reasonable. To resolve these indeterminations, the reasoning about the visual and semantic context of a scene is usually relayed to an artist or an expert who uses his experience to carry out his work. This is because humans are able to reason globally on the scene in order to obtain plausible and appreciable results. Would it be possible to model this experience from visual data and partly or totally automate tasks? This is the topic of this thesis: modeling priors using deep machine learning to solve typically ill-posed problems. More specifically, we will cover three research axes: 1) surface reconstruction using photometric cues, 2) outdoor illumination estimation from a single image and 3) camera calibration estimation from a single image with generic content. These three topics will be addressed from a data-driven perspective. Each of these axes includes in-depth performance analyses and, despite the reputation of opacity of deep machine learning algorithms, we offer studies on the visual cues captured by our methods.
184

Excavations dans les argiles sensibles de la Mer Champlain : comportement et modélisation

Zanavelo, Jose Fidelis 20 March 2024 (has links)
Titre de l'écran-titre (visionné le 18 mars 2024) / Cette thèse, intitulée « Excavations dans les argiles sensibles de la Mer Champlain : Comportement et modélisation », découle d'un projet de recherche initié par l'Institut de recherche Robert-Sauvé en santé et en sécurité du travail (IRSST) en 2016, en collaboration avec des chercheurs de l'Université Laval. L'étude vise à répondre aux risques associés aux travaux d'excavation, notamment dans les dépôts d'argiles sensibles de la Mer Champlain, qui ont causé 48 décès et 17 accidents graves au Québec entre 1974 et 2013. Face à la complexité des comportements des excavations dans les dépôts d'argiles sensibles, la thèse souligne la nécessité de disposer de méthodes fiables pour prédire ces comportements. Une méthode numérique avec une loi de comportement avancé, intégrant le couplage hydromécanique et les calculs des coefficients de sécurité par la méthode de réduction des résistances, est présentée comme une solution potentielle. Cependant, jusqu'à présent, la potentialité de cette méthode n'a pas été suffisamment exploitée dans le cas de l'excavation dans les dépôts d'argiles sensibles de la Mer Champlain et le retour d'expérience en manque cruellement. Ainsi, cette thèse cherche à combler cette lacune, elle vise à contribuer à une meilleure compréhension et gestion des risques associés à ces travaux, en offrant des outils prédictifs plus robustes pour assurer la sécurité des travailleurs sur le terrain. La thèse a été structurée en 3 volets à savoir le volet « expérimentation en vraie grandeur sur terrain », le volet « étude en laboratoire » et le volet « modélisation numérique ». Le premier se focalise sur le mécanisme de rupture, l'évoluton des pressions interstitielles et des déplacements observés sur terrain. Le deuxième volet présente et discute les comportements en contrainte-déformation de l'argile de Louiseville sous différentes trajectoires des charges en laboratoire. Le troisième, la modélisation et la simulation numérique, cible 3 objectifs : (1) examiner les différentes méthodes de calcul des coefficients de sécurité d'excavations réalisées dans des matériaux fins post-glaciaires; (2) rendre opérationnel le modèle avec écrouissage HSS$_\textup{struct}$ pour les argiles sensibles (3) mettre en œuvre et de rendre opérationnel un modèle numérique avancé sur deux excavations instrumentées dans l'argile sensible. Les résultats de cette thèse démontrent que cette méthode numérique avancée a pu être rendue opérationnelle et a permis d'expliquer les comportements observés sur terrain qui sont ces surfaces ruptures verticales et successives pour la tranchée A1 et cette évolution des pressions interstitielles qui n'est pas conforme à la prédiction de Bishop et Bjerrum (1960) pour la tranchée A2. Un modèle constitutif baptisé HSS$_\textup{struct}$, prenant en compte la structuration des argiles sensibles, a été développé, et des recommandations ont été formulées sur la fiabilité des différentes méthodes de calcul examinées au chapitre 5. / This thesis titled "Excavations in the sensitive clays of the Champlain Sea: Behavior and modeling", stems from a research project initiated by the "Institut de recherche Robert-Sauvé en santé et en sécurité du travail (IRSST)" in 2016, in collaboration with researchers from Université Laval. The study aims to address the risks associated with excavation work, particularly in the deposits of sensitive clays of the Champlain Sea, which caused 48 deaths and 17 serious accidents in Quebec between 1974 and 2013. In the face of the complexity of the behaviors of excavations in sensitive clay deposits, the thesis accentuates the need for reliable methods to predict these behaviors. A numerical method with a complex model that describes theses behaviors, integrating hydromechanical coupling and the calculations of safety coefficients by the method of reduction of resistances, is presented as a potential solution. However, up to now, the potential of this method has not been sufficiently exploited regarding excavation in the sensitive clay deposits of the Champlain Sea, and the feedback is sorely lacking. Thus, this thesis seeks to fill this gap. It aims to contribute to a better understanding and management of the risks associated with these works, by offering more robust predictive tools to ensure the safety of workers on site. The thesis was structured in 3 parts namely the "full-scale field experimentation" part, the "laboratory study" part and the "numerical modeling" part. The first focuses on the rupture mechanism, the evolution of interstitial pressures and displacements observed on site. The second part presents and discusses the stress-strain behaviors of Louiseville clay under different load trajectories in the laboratory. The third, modeling and numerical simulation, targets 3 objectives: (1) examine the different methods of calculating safety coefficients for excavations performed in in fine post-glacial materials; (2) operationalize the model with HSS$_\textup{struct}$ hardening for sensitive clays (3) implement and operationalize an advanced numerical model on two instrumented excavations in sensitive clay. The results of this thesis demonstrate that this advanced numerical method could be made operational and was able to explain the behaviors observed on site which are these vertical and successive rupture surfaces for trench A1 and this evolution of interstitial pressures which is not consistent with the prediction of Bishop and Bjerrum (1960) for trench A2. A constitutive model named HSS$_\textup{struct}$, considering the structuring of sensitive clays was developed, and recommendations were made on the reliability of the different calculation methods examined in chapter 5.
185

Developing a new methodology for predicting open stopes' performance

McFadyen, Benoît 17 July 2024 (has links)
Les chantiers de type chambre ouverte ont été popularisés dans les mines souterraines autour des années 80 dû aux hauts rendements et relativement faibles coûts qu'ils engendrent. Le succès de cette méthode de minage dépend de la capacité à concevoir une chambre ouverte qui maximise les profits tout en respectant la géométrie de celle-ci lors du minage. En réalité, des sur-bris (volume de roche minée et non planifiée) et sous-bris (volume de roche planifié laissée en place) sont générés lors du minage du chantier et peuvent avoir des conséquences néfastes sur la stabilité du chantier et la rentabilité des opérations. Afin de minimiser ces bris hors-profil et leurs impacts, des outils empiriques, tels que les abaques de stabilité, ont été développés et améliorés afin de prédire les volumes de sur-bris par face pour le chantier. Malheureusement, ces outils présentent certaines limitations :ils intègrent un nombre limité de paramètres (ce qui ne couvre pas toutes les causes possibles des bris hors profil pour le site à l'étude), le sous-bris n'est pas considéré et la résolution spatiale des prédictions est limitée (valeur qualitative ou moyenne par face). Ces limitations empêchent l'intégration de données économiques dans les prédictions et ainsi l’optimisation globale des chantiers. L'objectif de cette thèse fut de développer une méthodologie pour les mines en opération qui permet de comprendre la distribution spatiale et la magnitude des bris hors-profils générés le long de la surface du chantier et d'utiliser ces connaissances durant la conception du chantier pour prédire la géométrie attendue afin d'optimiser sa performance. Pour ce faire, une base de données de chantiers fut créée pour trois cas d'étude (deux en Australie et un au Canada) à une résolution par octree (données géoréférencées mesurées à une résolution d'environ un mètre cube) qui comprend des paramètres géométriques, géomécaniques, géologiques, opérationnels et de performance. Des méthodes statistiques univariées, bivariées et multivariées (analyse en composantes principales et moindres carrés partiels) ont servi à identifier les paramètres critiques. Deux modèles prédictifs multivariés ont été utilisés par la suite pour prédire la géométrie (moindres carrés partiels et forêt aléatoire) ainsi qu'un modèle prédictif additionnel (analyse discriminante linéaire) pour prédire la position des bris hors-profils. Les modèles ont été comparés pour déterminer la meilleure approche. Des données économiques ont ensuite été intégrées pour caractériser les performances géotechniques (bris hors-profil) et économiques des chantiers attendus. L'analyse statistique des paramètres a permis d'identifier les paramètres critiques pour chaque cas d'étude qui impacte le sur-bris (énergie du tir à l'explosif, surdéveloppement des galeries, position dans la surface et présence de structures géologiques) et le sous-bris (position dans la surface, distance avec les trous chargés d'explosifs et l'angle d'interception des trous chargés d'explosifs avec les surfaces). Les paramètres critiques ont été utilisés pour chaque site afin de construire les modèles prédictifs. Les résultats montrent que la magnitude des bris hors-profils le long de la surface de conception peut être prédite à l'aide d'un modèle forêt aléatoire avec moins d'un mètre d'erreur pour 65% de la surface en moyenne. Les modèles de forêt aléatoire permettent de prédire la géométrie avec succès pour 71 % des faces de chantiers transversaux et 51 % des faces de chantiers longitudinaux. L'analyse de ces prédictions permet de déterminer les magnitudes maximales possibles de bris hors-profil et leur position (utilisant l'approche probabiliste) ainsi que d'estimer la performance économique du chantier. La résolution des données et l'utilisation de l'analyse multivariée ont permis de prédire la géométrie des chantiers, allant bien au-delà de la simple prédiction qualitative par face de chantiers fournie par une approche traditionnelle de l'abaque de stabilité. Ces travaux constituent une étape importante vers un processus de conception et de planification des chantiers qui minimise les problèmes de stabilité, la dilution et la perte de minerai à travers le chantier. Étant donné qu'une géométrie de conception maximisant la récupération de minerai augmente le potentiel de dilution et vice versa, cette approche permet de quantifier le compromis économique et ainsi maximiser la rentabilité lors de l'exploitation du chantier. Cela marque une contribution importante pour la compréhension et l'optimisation de la performance des chantiers de type chambre ouverte. / Open stopes were popularised in underground mines around the 1980s due to the high yields they generate andtheir relatively low cost. The success of this mining method depends on the ability to design a stope that maximises profits while respecting the geometry during mining. In reality, overbreak (OB, unplanned volume of rock mined) and underbreak (UB, volume of planned rock left in place) are generated during the mining process which can have negative consequences on the stability of the stope and the profitability of the operation. To minimise the OB and UB, and their impact, empirical tools such as the Stability Chart were developed and improved to predict the volumes of OB per stope faces. Unfortunately, these tools have certain limitations: they integrate a limited number of variables (which does not cover all the possible causes of OB), UB is not considered, and the resolution of the predictions is limited (qualitative or average value per face). These limitations prevent the full integration of economic data into predictions and thus the optimisation of the mines stopes. The objective of this thesis is to develop a methodology for operating mines which enables the understanding of the spatial distribution and magnitude of OB and UB generated along the surface of the stope and to use this knowledge during stope design to predict the expected geometry to optimise its performance. A stope database was created for three case studies (two in Australia and one in Canada) at an octree resolution (georeferenced data measured at an approximately one cubic metre resolution) which includes geometric, geomechanical, geological, operational and performance variables. Univariate, bivariate and multivariate statistical methods (principal component analysis and partial least squares) were used to identify the critical variables for each site. Multivariate and machine learning models were subsequently used to predict the mined geometry (partial least squares and random forest) and OB and UB location (linear discriminant analysis). The models were compared to determine the best approach. Economic data was integrated to characterise the geotechnical (OB and UB) and economic performances of the expected geometry. The statistical analysis of the variables enables the identification of critical variables for each case studyregarding the OB (observed in areas where there is high blasting energy, where there is a large undercut and overcut, towards the middle of the faces and in the presence of major geological structure) and UB (observed near the edges of surfaces, where there is a large distance from the blasting, and where drill holes toe into the faces). The critical variables were used for each site to build predictive models. The results show that the magnitude of OB and UB can be predicted using a random forest model with a less than one metre error for 65% of the surface on average. These predictions are used to build the expected geometry of the stope. Considering the mining context, it is possible to excellently predict the geometry for 71% of the transversal stope faces and 51% of the longitudinal stope faces. The incorporation of probabilities also enables the estimation of the maximum magnitudes of OB and UB, their location and the economical estimation of the performance of the stopes. The octree resolution of the data and the use of multivariate analysis has enabled the prediction of the stope geometry, going well beyond the simple qualitative per stope face prediction provided by a traditional Stability Chart approach. This work is a significant step to advance stope design and the planning process, providing tools to minimise stability issues, dilution and loss of ore. As designing for higher ore recovery increases the potential for dilution and vice versa, this approach allows for the value realised from mining a stope to be maximised by quantifying this inherent economic trade-off. The enhanced resolution of both data and predictions has allowed for a more comprehensive evaluation of the predicted stope geometry and economic outcomes during the design phase. This marks a major contribution in the ability to design and plan the optimal stope
186

Analyse numérique de résultats expérimentaux dans le but d'établir la perméabilité intrinsèque de matériaux d'enrochement

Dhyser, Yann 19 April 2018 (has links)
Le transfert de chaleur dans les sols est généralement gouverné par la conduction. Cependant, dans les matériaux d’enrochement, la taille des pores est suffisamment grande pour permettre le mouvement de l’air soit par un gradient de pression (convection forcée) ou par un gradient de température (convection naturelle). Il a été montré dans de précédentes études que la convection influence grandement le transfert thermique dans les enrochements d’ouvrages de génie civil tels que les routes, les voies ferrées ainsi que les remblais de barrages construits dans les régions froides (Goering et Kumar, 1996 ; Saboundjian et Goering, 2003 ; Konrad et al., 2006). Le paramètre qui influence le plus la convection est la perméabilité intrinsèque du matériau. Au cours de recherches précédentes, Côté et Fillion (Fillion, 2008 ; Côté et al., 2011b) ont mis au point une cellule de test où les conditions permettant la convection naturelle ont été appliquées à un échantillon de matériau de 1 m3, dans le but de mesurer sa perméabilité intrinsèque. L’analyse des résultats expérimentaux a été faite en utilisant une relation analytique entre les nombres de Nusselt (Nu) et de Rayleigh (Ra), relation basée sur les résultats de Schubert et Strauss (1979) et valide pour une cellule imperméable et aux parois adiabatiques. En comparant les résultats avec les valeurs issues de modèles théoriques, un biais a été mis en évidence. Biais qui aurait pu être causé par la relation analytique utilisée et qui ne serait pas adaptée au montage expérimental dont le comportement n’est pas adiabatique. Dans ce mémoire, les transferts de chaleur à l’intérieur de la cellule expérimentale sont recréés en utilisant une modélisation numérique par éléments finis de la cellule expérimentale. Une nouvelle relation entre les nombres de Nusselt et de Rayleigh adaptée à la cellule est établie et les résultats expérimentaux de Fillion (2008) sont ensuite ré-analysés avec cette nouvelle relation. Les nouvelles mesures de la perméabilité intrinsèque sont ensuite comparées en fonction du modèle utilisé avec les résultats obtenus expérimentalement par Fillion (2008) et par les relations théoriques.
187

Modélisation du comportement des bétons fibrés à ultra-hautes performances par la micromécanique : effet de l'orientation des fibres à l'échelle de la structure

Guenet, Thomas 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées. / This Ph.D. project has been prepared within the context of an industrial and economic optimisation of UHPFRC structural elements to ensure ductility at the structural level, while adjusting the amount of fibre and optimising the manufacturing process. The model developed explicitly describes the participation of local fibre reinforcement in tension, thanks to a hardening behaviour followed by a softening one. The constitutive law is a function of the local fibre content, of the fibre orientation with respect to tensile principal directions, of the fibre slenderness and other usual material parameters related to the fibres, the cementitious matrix and their interaction. The fibre orientation is taken into account using a normal probability distribution with one or two variables to reproduce any orientation either obtained from a representative simulation of casting fresh UHPFRC or informed by experimental analysis on prototypes. Lastly, the model reproduces the cracking of UHPFRC based on the principle of smeared rotating crack models. The constitutive law is implemented in a structural finite element software as a predictive tool of reliability and overall ductility of UHPFRC elements. Two experimental campaigns were carried out, one at Laval University in Québec and one at Ifsttar, Marne-la-Vallée. The first one is used to confirm the model ability to reproducethe overall behaviour under typical tensile and bending loads in simple structural elements for which the preferential fibre orientation was measured by microtomography. The second experimental campaign demonstrates the capabilities of the model, in an optimisation process, to help manufacture relatively complex ribbed triangular plates of industrial interest in which different manufacturing process and fibre volume have been considered. The identification of fibre distribution and orientation has been performed using mechanical tests on sawn samples. The model predictions have been compared to the global structural behaviour, and to the ductility demonstrated experimentally. The model could be qualified through comparison with conventional analytical engineering methods, taking into account the statistical variability. Improvement and additional developments have been identified.
188

Modélisation et optimisation multi-objectifs d'un générateur thermoélectrique dans un échangeur de chaleur à écoulements croisés

Bélanger, Simon 18 April 2018 (has links)
La présente étude porte sur l'optimisation d'un générateur thermoélectrique inclus dans un échangeur de chaleur à écoulements croisés. Un générateur thermoélectrique est un appareil constitué de semi-conducteurs qui génère de l'électricité lorsqu'il est traversé par un flux de chaleur, de là son implementation dans un échangeur de chaleur. L'objectif principal sera d'utiliser un outil d'optimisation, en l'occurrence un algorithme génétique, afin de déterminer les designs optimaux qui satisferont un ensemble de critères. Préalablement aux optimisations, un modèle complet a d'abord dû être créé avec l'aide du logiciel Matlab. Il s'agit de modéliser numériquement l'échangeur de chaleur ainsi que le générateur thermoélectrique qui en est partie intégrante. La modélisation considère plusieurs facteurs dont le nombre d'étages de l'échangeur, le courant traversant les modules thermoélectriques, le nombre de modules thermoélectriques et la géométrie de l'échangeur. Le code est ensuite validé numériquement avec des exemples théoriques ou des résultats issus de la littérature. Une fois la modélisation effectuée, il faut définir les objectifs à minimiser ou maximiser. Il sera utile de maximiser la puissance électrique produite par le système, minimiser le volume de l'échangeur, minimiser la puissance de pompage requise, minimiser le nombre de modules thermoélectriques requis ainsi que maximiser les profits générés par le système sur une période de temps donnée. Initialement, nous ne considérerons que la maximisation de la puissance électrique fournie par le système selon différentes contraintes physiques (différence de température ou débit capacitif fixés). Nous optimiserons aussi les connections électriques dans le système pour constater si les designs suggérés par l'algorithme d'optimisation sont réalisables. Suite à cela, nous étudierons des cas multi-objectifs. Plusieurs objectifs seront considérés simultanément durant l'optimisation et nous analyserons les fronts de Pareto (ensemble des solutions possibles) selon les différents objectifs qui auront été considérés. Finalement, une optimisation thermoéconomique sera réalisée sur le système afin de valider si ce dernier est rentable ou sinon les correctifs qu'il faudrait y apporter pour rendre le tout profitable.
189

Amélioration de la représentation géométrique 2D et 3D des agrégations de poissons en support à l'étude de leur évolution spatio-temporelle

Carette, Valérie 13 April 2018 (has links)
Les systèmes d’information géographique (SIG) constituent des outils performants pour la gestion, l’analyse et la représentation de données spatiales. Ils sont utilisés dans de nombreux domaines dont en biologie marine. Parmi les phénomènes spatiaux étudiés en milieu marin, la dynamique des poissons fait l’objet de nombreuses recherches, étant donné l’importance des pêches dans l’économie des régions côtières et la nécessité de gérer ces ressources de façon durable. Un comportement clé des poissons est leur capacité à se regrouper pour former des agrégations. Une compréhension de ces agrégations est nécessaire afin d’établir des stratégies de reconstruction efficaces des ressources halieutiques en déclin. Cependant, les méthodes existantes utilisées pour représenter les agrégations de poissons ne modélisent pas ces agrégations explicitement en tant qu’objets spatiaux. De plus, malgré les capacités intéressantes offertes par les SIG actuels, ces outils sont limités en raison de la nature tridimensionnelle, dynamique et floue des agrégations de poissons dans le milieu marin. L’objectif principal de ce mémoire est de proposer de nouvelles approches pouvant permettre d’améliorer l’identification et la représentation spatiale des agrégations de poissons à des échelles régionale et locale. En 2D, l’approche proposée repose sur les modèles d’objets spatiaux flous découlant de la théorie des ensembles flous. Elle utilise une structure de données vectorielle pour représenter les limites des étendues minimale et maximale des agrégations de poissons et une structure de données matricielle pour modéliser la transition graduelle existant entre ces limites. Par ailleurs, en 3D, l’approche développée se base sur la triangulation Delaunay 3D et dynamique ainsi que sur l’algorithme de clustering 3D des α-shapes. Elle permet de détecter les agrégations contenues dans un jeu de données et de les reconstruire sous la forme d’objets 3D afin de pouvoir en étudier, par exemple, les propriétés morphologiques. L’application des approches proposées à des données halieutiques révèle plusieurs avantages et limitations qui sont discutés tout au long du mémoire. / Geographic information systems (GIS) are powerful tools to manage, analyse and represent spatial data. They are used in various disciplines, including marine biology. One of the most important phenomena intensively studied by marine biologists is the dynamics of fish. This is partly because there is an increasing need for sustainable management of fisheries which are very important in the economy of coastal zones. Fish aggregations are a fundamental component of these dynamics and should be better understood to establish efficient recovery strategies in the context of declining aquatic resources. However, the traditional representations of fish aggregations do not model those aggregations explicitly as spatial objects. Moreover, despite many interesting capabilities of current GIS, these tools are unable to handle the tridimensional, dynamic and fuzzy nature of fish aggregations. The main objective of this thesis is to propose new approaches to improve the representation of fish aggregations at the regional and local scales. In 2D, the proposed approach is based on the fuzzy spatial objects models, which are based on the fuzzy sets theory. It uses a vector data structure to delineate the maximal and minimal extents of fish aggregations and a raster data structure to model the gradual transition which exists between these boundaries. In 3D, the proposed approach for the representation of fish aggregations is based on the dynamic Delaunay tetrahedralisation and the 3D α-shapes clustering algorithm. The integrated algorithm allows automatic detection of the fish aggregations contained in a dataset. 3D models also allow amongst other things the study of the morphological properties of the different aggregations. Testing these approaches with fisheries data (e.g. datasets from scientific surveys, acoustic datasets) revealed several benefits and limitations which are discussed throughout this thesis.
190

Geothermal system optimization in mining environments

Raymond, Jasmin 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Les ressources particulières à l’environnement minier, tel que l’eau inondant des galeries et des stériles exothermiques, permettent de diminuer les coûts d’installation des systèmes de pompes à chaleur géothermique. Les particularités de l’environnement minier posent toutefois un défi de taille lors de la conception d’un système puisque l’approche utilisée doit considérer, par exemple, la conductivité hydraulique accrue par les excavations ou la génération de chaleur provenant de l’oxydation de minéraux. L’objectif de ce projet de recherche est de simuler l’opération de systèmes géothermiques issus de sites miniers dans le but de démontrer les économies d’énergie potentielles et faciliter l’installation des systèmes. Des approches numériques sont développées avec le programme HydroGeoSphere pour application à des études de cas réalisées aux Mines Gaspé à Murdochville et à la Halde Sud de la Mine Doyon en Abitibi. Un système de pompes à chaleur d’aquifère aux Mines Gaspé est optimisé avec un modèle numérique où sont superposés des éléments 1D et 3D pour représenter les excavations. Les simulations démontrent que le système peut être opéré à partir d’anciens puits de ventilation afin d’éviter d’effectuer des forages. Les stériles de la Halde Sud sont d’abord caractérisés avec un test de réponse thermique conventionnel, analysé avec l’équation de la ligne-source et le principe de superposition considérant les variations du taux d’injection de chaleur. Une méthode numérique est aussi développée pour analyser l’essai influencé par l’hétérogénéité des matériaux et le gradient géothermique prononcé. Le mort terrain et le roc sous la halde sont caractérisés à l’aide d’un nouveau test de réponse thermique effectué avec des câbles chauffants. Des simulations numériques reproduisent ensuite la distribution de température lors d’essais types, laquelle devient rapidement homogène durant la période de restitution thermique ce qui permet d’analyser la température dans le forage sans connaître la position du capteur. L’opération d’un système de pompes à chaleur couplées au sol aménagé sous la Halde Sud est finalement simulée. L’optimisation des charges de chauffage indique que l’échangeur de chaleur situé sous les stériles peut fournir plus d’énergie thermique qu’un échangeur situé dans un environnent conventionnel, réduisant la longueur de forage à l’installation. / Resources associated to mining environments, such as mine water and exothermic waste rock, allow a reduction of installation costs of ground source heat pump systems. Compared to other environments, caution is required when designing systems in mining environments because of enhanced hydraulic conductivity created by mine voids or heat generation due to oxidation of minerals. The objective of this study is to simulate the operation of geothermal systems on mine sites to demonstrate energy savings and promote installation. Numerical modeling approaches are developed with the program HydroGeoSphere applied for case studies conducted at the Gaspé Mines in Murdochville and at the South Dump of the Doyon Mine in Abitibi. A groundwater heat pump system at the Gaspé Mines is optimized with a numerical model, where 1D and 3D elements are superposed to adequately represent the mine voids. The simulations show that the system can be operated using former mining shafts to avoid drilling boreholes. Waste rock of the South Dump is initially characterized with a conventional thermal response test analyzed with the lines-source equation and the superposition principle accounting for variations of heat injection rates. A numerical method is also developed to analyze the test that was affected by the heterogeneity of materials and the strong geothermal gradient. The overburden and the host rock below the dump are characterized with a novel thermal response test using heating cables. Numerical simulations then reproduce the temperature distribution during typical tests, which homogenizes rapidly during the recovery period allowing the analysis of temperature inside the borehole without knowing the position of the sensor. The operation of a ground-coupled heat pump system installed under the South Dump is finally simulated. The optimization of heating loads indicates that the heat exchanger located beneath the waste pile can provide more thermal energy than an exchanger located in a conventional environment, reducing bore length required for a given system.

Page generated in 0.4754 seconds