• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelle

Côté, Benoit 20 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique. / We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
172

Control and optimization of the primary drying of lyophilization in vials

Chia, Andrea 07 July 2023 (has links)
Titre de l'écran-titre (visionné le 28 juin 2023) / La lyophilisation est devenue un sujet essentiel de développement dans l'industrie pharmaceutique. Il s'agit d'une technique de séchage reposant sur le principe de la sublimation qui est utilisée pour stabiliser et conserver des matériaux qui ne peuvent pas être séchés par des techniques conventionnelles. La lyophilisation comporte trois étapes : la congélation, le séchage primaire et le séchage secondaire. L'efficacité globale du procédé dépend principalement de la performance du séchage primaire, qui représente l'étape la plus longue et la plus énergivore et détermine en grande partie la qualité du produit final. La pratique courante consiste à opérer le procédé sous des profils pré-calculés avec des marges de sécurité, ce qui conduit à des cycles conservateurs et sous-performants. La commande automatique est donc une voie prometteuse pour réduire la durée de séchage, mais elle se limite généralement à des applications en flacon unique négligeant l'hétérogénéité spatiale affectant la dynamique de séchage intra-lot. D'autres défis sont liés à l'inaccessibilité des variables clés du processus ou à l'utilisation d'instruments intrusifs pour leur mesure. Ce projet de recherche étudie la commande et l'optimisation du séchage primaire de la lyophilisation en flacons, en abordant trois aspects principaux : la modélisation, l'estimation et la commande. La conception des stratégies d'estimation et de contrôle exige d'abord une représentation fiable du procédé. Le modèle proposé intègre les équations fondamentales du séchage primaire dans un modèle linéaire à paramètres variables, fournissant un compromis approprié entre la précision du modèle et le coût de calcul. Cette étude explore également la conception d'estimateurs en ligne de variables clés du procédé à l'aide d'instruments non invasifs, applicables à des équipements pilotes et industriels. La mesure globale est convertie pour tenir compte des contributions des flacons individuels, et cette mesure locale est utilisée dans la conception des estimateurs en ligne de la température du produit. Trois estimateurs sont formulés à l'aide des algorithmes suivants : filtre de Kalman étendu, l'estimation à fenêtre glissante et l'estimation non linéaire par moindres carrés. Des résultats satisfaisants ouvrent la voie à la possibilité de concevoir des estimateurs multi-flacons avec la mesure globale de la vapeur d'eau et englobant l'hétérogénéité spatiale du séchage. Le principe de commande initial a été développé et évalué en simulation pour un cas à flacon unique. Il a considéré deux algorithmes : une commande proportionnelle-intégrale et la commande prédictive. Le schéma de contrôle a été étendu à un problème à multiples flacons et validé dans une unité à l'échelle pilote. Les résultats ont été concluants, la commande automatique a conduit à des réductions significatives du temps de séchage par rapport aux conditions de fonctionnement typiques, et l'approche multi-flacons a permis d'obtenir un cycle très fiable. / Lyophilization, or freeze-drying, has become an essential subject of ongoing development in the pharmaceutical industry. It is a drying technique relying on the sublimation principle and is used to stabilize and preserve materials that cannot be dried by conventional techniques. Lyophilization involves three stages: freezing, primary drying, and secondary drying. The global efficiency of the process relies mainly on the performance of primary drying, as it represents the most time and energy-consuming stage and largely determines the quality of the final product. The common practice runs the process under pre-calculated profiles with safety margins, leading to conservative and underperforming cycles. Process control is thus a promising avenue to decrease drying duration, but it is generally confined to single-vial applications neglecting the spatial heterogeneity affecting the drying dynamics intra-lot. Additional challenges are related to the inaccessibility of key process variables or the use of intrusive instrumentation for their measurement. This research project investigates the control and optimization of the primary drying of lyophilization in vials, addressing three main aspects: modeling, estimation, and control. The conception of estimation and control strategies first requires a reliable process representation. The proposed model accommodates the fundamental equations of primary drying into a linear parameter-varying model, providing a suitable compromise between model accuracy and computational cost. This study also explores the design of in-line estimators of key process variables using non-invasive instrumentation, with applicability to pilot and industrial scale equipment. The global reading is converted to account for the contributions of individual vials, and this local measurement is used in the design of in-line estimators of the product temperature. Three estimators are formulated using the following algorithms: extended Kalman filter, moving horizon estimation, and nonlinear least square estimation. Satisfactory results open the door to the possibility of designing multi-vial estimators with the global reading of water vapor and encompassing the spatial heterogeneity of drying. The initial control framework was developed and benchmarked in simulation for a single-vial case. It considered two algorithms: a standard proportional integral control and a model predictive control. The control scheme was extended to a multi-vial problem and validated in a pilot-scale unit. Results were conclusive, process control led to significant drying time reductions compared to typical operating conditions, and the multi-vial approach yielded a highly dependable cycle.
173

Modes de vibration dans le modèle de Skyrme avec un terme de masse modifié

Davies, Merlin 13 April 2018 (has links)
Le modèle de Skyrme, proposé il y a près de cinquante ans par T.H.R. Skyrme [1, 2, 3, 4], est d'abord passé presque inaperçu, à cette époque où la compréhension du zoo de particules créées par les accélérateurs se faisait plus pressante et retenait plus l'attention. Quelques vingt ans plus tard, avec l'acquisition d'une connaissance plus complète de la force nucléaire et des particules hadroniques, les physiciens tentèrent de répliquer les succès de l'électrodynamique quantique (EDQ) à la chromo dynamique quantique (CDQ), la théorie de champs relativiste de l'interaction forte. Dans ce nouveau contexte de recherche, Edward Witten montra que dans la limite Nc --> infini [15] (où Nc est le nombre de charge couleur) le lagrangien de la CDQ possède les mêmes symétries que le modèle de Skyrme. Ce fut une trouvaille importante en raison de la nécessité d 'avoir une théorie efficace de la CDQ à basse énergie et elle engendra la renaissance du modèle dans le milieu de la physique théorique. Aujourd'hui, le modèle peut prétendre à un succès relatif dans la prédiction de plusieurs propriétés physiques des nucléons (proton, neutron, Delta, etc ... ), c'est-à-dire à 30% des valeurs expérimentales ou mieux[5]. Toutefois, le modèle a ses lacunes. Plus le nombre baryonique (B) augmente, plus le modèle perd ses qualités de bien représenter la géométrie des noyaux atomiques. L'exemple classique est celui pour B = 2. La solution d'énergie minimale a la forme d'un tore, ce qui est loin de la forme attendu, soit de deux sphères légèrement liées ensemble (la forme présumée du deutéron). Cette hypothèse est motivée par l'observation que les nucléons semble conserver leurs individualités dans les noyaux. En plus, le modèle prédit une énergie de liaison d'environ 80 MeV pour le tore, ce qui est beaucoup trop élevée par rapport à celle du deutéron qui n'est que de 2.224 MeV. Qualitativement, il semble donc que la matière baryonique soit plus rigide que ce que le modèle de Skyrme sous-entend. Ces caractéristiques plutôt indésirables du modèle ont poussé les chercheurs à proposer des variations au modèle dans l'espoir de remédier à cette lacune. Dans le présent mémoire, nous allons justement tenter de déterminer à l'aide de l'étude des énergies vibratoires, comment un terme de masse proposé récemment par v. B. Kopeliovich, B. Piette, et W. J. Zakrzewski [8, 9] réussira à améliorer le modèle à l'égard des propriétés mentionnées ci-haut. Les énergies de vibration sont en quelque sorte une mesure de la rigidité des solitons solitoniques et leur comportement pourrait suggérer une approche visant à obtenir des noyaux où les nucléons préservent leurs identités.
174

Modelling of suspended solids in integrated urban wastewater systems

Ledergerber, Julia Margrit 02 November 2020 (has links)
Les avantages de la gestion intégrée de l'eau sont connus depuis des années, mais ces approches sont devenues plus importantes que jamais. Cela est reconnu dans l'objectif 6 des 17 objectifs de développement durable des Nations Unies. En ciblant à la fois l'eau potable et l'assainissement, cet objectif demande une approche intégrée car il reconnaît leur interdépendance. Cette thèse vise à faire progresser le domaine de la modélisation intégrée de l'eau, et en particulier en ce qui concerne les matières en suspension. Les émissions globales de l'assainissement ont gagné en intérêt puisque les normes de qualité de l'eau sont étendues de la station de récupération des ressources de l'eau au réseau d'égout. La modélisation intégrée permet d'évaluer les interactions et d'estimer les émissions en plus des mesures de la qualité de l'eau (encore) rares. Les particules peuvent être considérées comme un indicateur de la qualité de l'eau couvrant la pollution particulaire, mais aussi les matières organiques, les nutriments et les substances telles que les micro-polluants hydrophobes. L'approche de modélisation choisie est conceptuelle, pour ses calculs rapides, et basée sur la distribution de la vitesse de décantation des particules, partout où la décantation et la remise en suspension sont les processus caractéristiques. L'approche est complétée par d'autres modèles pour couvrir le système du bassin versant jusqu'à la station de récupération des ressources de l'eau. Un modèle intégré nécessite de nombreuses données. Pour une collecte de données efficace, premièrement, une procédure est établie pour construire un modèle conceptuel d'égout à partir d'un modèle hydraulique détaillé. Deuxièmement, une méthodologie de conception expérimentale optimale est adaptée à l'environnement complexe des égouts pour une campagne de mesure de la qualité de l'eau. L'utilité de l'approche de la distribution de la vitesse de décantation des particules est ensuite démontrée en calibrant et en validant le modèle pour une site pilote. Une procédure est élaborée pour tenir compte de l'incertitude des paramètres et de la variabilité des données d'entrée an d'identifier des points de contrôle ables. La procédure est utilisée pour la réduction d'émission des particules, facilitée par le calcul rapide du modèle car plusieurs analyses de sensibilité sont demandées. Le dernier chapitre termine la thèse par l'évaluation pratique des stratégies visant à réduire les émissions globales. La thèse fait ainsi progresser le domaine de la modélisation intégrée des particules et fournit en même temps des procédures qui permettent de surmonter les obstacles généraux à la modélisation en mettant l'accent sur la collecte de données fiables et efficaces, la modélisation ainsi que l'optimisation. / The advantages of integrated water management have been known for decades, but are more than ever important. This is acknowledged in goal six of the 17 sustainable development goals of the United Nations. By targeting both clean water as well as sanitation, this goal is inherently asking for an integrated approach since it recognizes their interdependence. This dissertation aims at advancing the eld of integrated water systems modelling in general, and in particular with respect to suspended solids. Overall emissions from the integratedurban wastewater system have gained interest since water quality standards are increasing lyextended from the water resource recovery facility to the sewer system. Integrated modelling allows evaluating interactions and estimating overall emissions complementary to the not (yet) abundant water quality measurements. For this evaluation suspended solids can be seen asan indicator for the receiving water quality covering particulate pollution as such, but also undesired organic matter, nutrients and substances such as hydrophobic micropollutants. The modelling approach chosen is conceptual, due to its rapid calculations, and based on the particle settling velocity distribution wherever settling and resuspension are the characteristic processes of suspended solids. The approach is extended with complementary models to coverthe integrated system from the catchment down to the water resource recovery facility. The development of an integrated model however requires vast data sets. First, for efficient data collection a procedure is established to build a fast conceptual sewer model from its detailed hydraulic counter part. Second, an optimal experimental design methodology is adapted to the challenging sewer environment for the efficient planning of a water quality measurement campaign. The usability of the particle settling velocity approach is then shown by calibrating and validating the model for a case study. A procedure is developed to consider parameter uncertainty and input variability to identify reliable control handles. The procedure is appliedfor the abatement of total suspended solid, facilitated by the comparably low computational demand of the model, as the procedure asks for multiple global sensitivity analyses. The last chapter closes the dissertation with the practical application of evaluating different strategies to reduce the total suspended emissions to the receiving water. The dissertation thus advances the eld of integrated modelling for particulates and at the same time provides procedures which overcome barriers general to modelling focusing on reliable and efficient data collection,as well as optimization.
175

Modélisation de la dépendance entre les garanties applicables en assurance automobile

Vermette, Richard 17 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Dans un portefeuille d’assurance automobile, différents types de réclamations peuvent survenir pour chaque police en vigueur. En cas de collision entre deux véhicules, l’assuré peut déposer une réclamation pour dommages corporels et matériels à luimême et à autrui. Traditionnellement, ces types de risques ont été considérés comme indépendants afin d’en faciliter la modélisation stochastique. Dans la pratique, on observe toutefois une dépendance entre les montants de ces réclamations dont il importe de tenir compte pour mieux quantifier le risque global du portefeuille. Frees et Valdez (2008) ont proposé un modèle permettant de considérer certaines dépendances entre les fréquences et les sévérités des garanties impliquées dans les réclamations d’une même police d’assurance. Dans ce mémoire, deux structures de modèles inspirées de celle de Frees et Valdez (2008) sont proposées pour modéliser les sinistres d’un portefeuille d’assurance automobile de l’Ontario. L’ajustement des modèles est réalisé par la méthode de vraisemblance maximale ainsi que par une approche bayésienne.
176

Modélisation numérique et étude expérimentale des comportements couplés de transport hygro-thermo-chimio-électrique des matériaux cimentaires / Numerical modelling and experimental study of coupled hygro-thermo-chemo-electrical transport behavior of cementitious materials

Chen, Xuande 08 February 2022 (has links)
Le problème de la corrosion induite par les chlorures a toujours é té une question importante étudié e par les ingénieurs et les chercheurs au fil des ans. Dans les régions froides comme le Québec, la rigueur de l'hiver réduit la durabilité des structures : lorsque de l'eau contenant du sel de déglaçage entre en contact avec des structures en béton, cela entraîne une dé gradation progressive rapide du matériau en raison de la migration des chlorures dans le béton d'enrobage essentiellement par corrosion des aciers d'armature. Il est donc intéressant de bien comprendre les propriété s et les mécanismes de transport dans le béton, et de savoir comment la durabilité des structures est affecté e par ces différents processus de transport. De nombreux travaux de recherche étudient les différents mécanismes de transport à l'intérieur du béton, tant du point de vue numérique qu'expérimental. Cependant, des lacunes subsistent dans la construction du modèle numérique de transport pour représenter un béton en service sous sollicitation mécanique ainsi que dans le développement d'approches expérimentales, en particulier pour les nouvelles géné rations de bétons comme les bétons à ultra-hautes performances ou les bétons renforcé s de fibres à ultra-hautes performances (BUP/BFUP). L'objectif de cette thèse est d'étudier le transport multi-physique de différentes phases (eau liquide et vapeur) et espèces (sodium, chlorure, potassium, calcium, sulfate, etc.) dans les matériaux cimentaires traditionnels (CEM I-V) ainsi que les bétons à hautes performances (BUP&BFUP). A cette fin, plusieurs protocoles ou approches expérimentales innovantes ont été développé es et un modèle/logiciel de transport hygro-thermo-électrique multi-ionique couplé numériquement a été développé à deux dimensions (2D), soit pour mesurer les propriétés de transport du matériau étudié, soit pour simuler et pré dire le comportement de transport de ceux-ci. Tout d'abord, les tests de durabilité (test de diffusion thermique, test de séchage, test d'absorption capillaire) sur le béton traditionnel issus de la littérature ont été étudiés et sur la base de la procédure de calibration, un modèle de transport hygrothermique de l'eau (TransChlor2D) pour les matériaux en bé ton traditionnel a été établi. En particulier, ce nouveau modèle bidimensionnel a correctement pris en compte l'effet de succion capillaire de l'eau dans les structures en bé ton sec soumises à l'environnement humide. Ensuite, afin de mettre en œuvre le modèle sur les matériaux BUP/BFUP, un test isotherme de sorption de la vapeur d'eau (WVSI) a été réalisé. Grâce à la dernière technologie dynamique vapeur sorption (DVS), l'expérience a permis d'enregistrer le processus d'hystérésis de sorption dans de petits échantillons BUP/BFUP broyés. L'hystérésis de sorption a montré une forme triangulaire, ce qui est nouveau par rapport à l'isotherme de sorption des matériaux cimentaires traditionnels (pâte de ciment ou béton ordinaire). Une formule analytique a également été développée pour décrire les courbes isothermes d'adsorption et de désorption du BFUP. Enfin, le modèle TransChlor2D a été é tendu à un modèle multi-ionique, pour modéliser la pénétration de différentes espèces ioniques dans le béton, avec le couplage d'un potentiel électrique externe et des effets de fissuration. Le processus de transport couplé a été modélisé avec une équation de Nernst-Planck modifiée. Les effets de chargement considèrent l'influence des fissures ou des microfissures sur les diffusivités ioniques. Des tests de flexion ont été effectué s sur des poutres en BFUP pour générer des microfissures, qui ont été capturé es par une technologie de corrélation d'images numériques (DIC). Le matériau fissuré a ensuite été modélisé avec un algorithme de détection des dommages qui est ensuite intégré dans TransChlor2D. Les résultats de la simulation du transport multi-ionique dans des poutres BFUP endommagées ont montré que les microfissures développées en raison de la charge pourraient être un facteur crucial modifiant la résistance à la corrosion du matériau, et que les structures réelles présentant des fissures devraient être bien protégées pour éviter une détérioration rapide Le modèle/logiciel de transport multi-physique (TransChlor2D), développé dans cette recherche, peut être utilisé efficacement par les ingénieurs ou les gestionnaires de projets pour réaliser l'estimation de la durée de vie des structures. Les résultats prometteurs des simulations numériques ont prouvé que le modèle est très précis pour les prédictions au niveau de la structure. Les nouveaux résultats des expériences ont également révélé certaines propriétés de transport uniques du BUP/BFUP qui diffèrent des matériaux en béton traditionnels, et les protocoles proposé s peuvent être particulièrement utiles pour les futures études de durabilité du BUP/BFUP. / Chloride induced corrosion problem has always been an important issue studied by engineers and researchers over years. In cold regions like Québec, the winter severity degrades structures' durability: when water containing de-icing salt is in contact with concrete members, it will lead to a fast-progressive degradation of the material as a result of chloride migration in the concrete cover that corrodes reinforcement steel bar. Therefore, it is a topic of interest to have a clear understanding of the concrete material's transport properties and mechanisms, and how structure's durability is affected by these transport processes. Numerous research investigate the different transport mechanisms inside concrete materials, from both numerical and experimental perspectives. However, the gap remains in building the numerical transport model to represent concrete structures in service state with mechanical solicitation as well as in developing experimental approaches, particularly for new generations of concretes like Ultra-High-Performance Concrete or Ultra-High-Performance Fiber-Reinforced Concrete (UHPC/UHPFRC) The objective of this thesis is to study multi-physics transport of different phases (liquid and vapor water) and species (sodium, chloride, potassium, calcium, sulfate, etc.) in both traditional cement materials (CEM I-V) and high performance concretes (UHPC&UHPFRC). To this end, several innovative experimental protocols or approaches have been developed and a numerically coupled multi-ionic hygro-thermo-electrical transport model/software has been developed in two dimensions, either to measure the transport properties of the studied material or to simulate and predict the transport behavior of them. Firstly, the durability tests (thermal diffusion test, drying test, capillary absorption test) on traditional concrete form the literature were studied and based upon the calibration procedure, a hygro-thermal water transport model (TransChlor2D) for traditional concrete materials was established. Particularly, this new two-dimensional model correctly considered the water capillary suction effect in dry concrete structures. Then, in order to implement the model on UHPC/UHPFRC materials, a water vapor sorption isotherm test (WVSI) was carried out. With the latest DVS technology, the experiment recorded the sorption hysteresis process in small crushed UHPC/UHPFRC samples. The sorption hysteresis showed a triangular shape, which was novel compared to the sorption isotherm of traditional cement materials (cement paste or regular concrete). An analytical formula was also developed to describe the adsorption and desorption isotherm curves of UHPFRC. Finally, TransChlor2D model was extended into a multi-ionic model, to model the penetration of different ionic species in concrete, with the coupling of an external electric potential and loading effects. The coupled transport process was modeled with a modified Nernst-Planck equation. The loading effects was considered as the influence of cracks or microcracks on ionic diffusivities. Bending tests were carried out on UHPFRC beams to generate microcracks, which was captured by a Digital Image Correlation technology. The cracked material was then modeled with damage detection algorithm integrated in TransChlor2D. The simulation results of multi-ionic transport in damaged UHPFRC beams showed that the microcracks developed due to loading could be a crucial factor changing material's corrosion resistance, and real structures with cracks should be well protected to avoid fast deterioration. The multi-physics transport model/software (TransChlor2D) developed and validated in this study may be effectively useful for engineers or project managers to perform structure service life estimation. The promising results from numerical simulations proved it to be significantly accurate for structural level predictions. The new findings from the experiments also revealed some unique transport properties of UHPC/UHPFRC that differs from the traditional concrete materials, and the proposed protocols can be especially useful for future durability study on UHPC/UHPFRC.
177

Calibrage et modélisation d’un système de stéréovision hybride et panoramique

Arfaoui, Aymen 23 April 2018 (has links)
Dans cette thèse nos contributions à la résolution de deux problématiques rencontrées en vision numérique et en photogrammétrie, qui sont le calibrage de caméras et la stéréovision, sont présentées. Ces deux problèmes font l’objet de très nombreuses recherches depuis plusieurs années. Les techniques de calibrage existantes diffèrent beaucoup suivant le type de caméras à calibrer (classique ou panoramique, à focale fixe ou à focale variable, ..). Notre première contribution est un banc de calibrage, à l’aide des éléments d’optique diffractive, qui permet de calibrer avec une bonne précision une très grande partie des caméras existantes. Un modèle simple et précis qui décrit la projection de la grille formée sur l’image et une méthode de calibrage pour chaque type de caméras est proposé. La technique est très robuste et les résultats pour l’ensemble des caméras calibrées sont optimaux. Avec la multiplication des types de caméras et la diversité des modèles de projections, un modèle de formation d'image générique semble très intéressant. Notre deuxième contribution est un modèle de projection unifié pour plusieurs caméras classiques et panoramiques. Dans ce modèle, toute caméra est modélisée par une projection rectiligne et des splines cubiques composées permettant de représenter toutes sortes de distorsions. Cette approche permet de modéliser géométriquement les systèmes de stéréovision mixtes ou panoramiques et de convertir une image panoramique en une image classique. Par conséquent, le problème de stéréovision mixte ou panoramique est transformé en un problème de stéréovision conventionnelle. Mots clés : calibrage, vision panoramique, distorsion, fisheye, zoom, panomorphe, géométrie épipolaire, reconstruction tridimensionnelle, stéréovision hybride, stéréovision panoramique. / This thesis aims to present our contributions to the resolution of two problems encountered in the field of computer vision and photogrammetry, which are camera calibration and stereovision. These two problems have been extensively studied in the last years. Different camera calibration techniques have been developed in the literature depending on the type of camera (classical or panoramic, with zoom lens or fixed lens..). Our first contribution is a compact and accurate calibration setup, based on diffractive optical elements, which is suitable for different kind of cameras. The technique is very robust and optimal results were achieved for different types of cameras. With the multiplication of camera types and the diversity of the projection models, a generic model has become very interesting. Our second contribution is a generic model, which is suitable for conventional and panoramic cameras. In this model, composed cubic splines functions provide more realistic model of both radial and tangential distortions. Such an approach allows to model either hybrid or panoramic stereovision system and to convert panoramic image to classical image. Consequently, the processing challenges of a hybrid stereovision system or a panoramic stereovision system are turned into simple classical stereovision problems. Keywords: Calibration, panoramic vision, distortions, fisheye, zoom, panomorph, epipolar geometry, three-dimensional reconstruction, hybrid stereovision, panoramic stereovision.
178

Évaluation de la sensibilité des projections hydrologiques au choix des outils hydro-météorologiques globaux conceptuels : approche multimodèle

Seiller, Gregory 19 April 2018 (has links)
La modélisation des impacts des changements climatiques sur les ressources hydriques d’un territoire est une préoccupation grandissante pour la communauté scientifique œuvrant dans les domaines des ressources en eau. Cette tâche est complexe car elle recèle de nombreuses incertitudes se cumulant lors du processus de modélisation, de la définition des scénarios de gaz à effet de serre jusqu’à la réalisation des projections hydrologiques. L’ensemble des outils de modélisation employés influence alors potentiellement notre capacité à réaliser un diagnostic des impacts des changements climatiques. Dans ce contexte, l’incertitude de modélisation associée à 20 modèles hydrologiques globaux conceptuels, 24 formules d’évapotranspiration potentielle et 7 modules de neige a été évaluée sur deux bassins versants : au Saumon (Province de Québec, Canada) et Schlehdorf (État de la Bavière, Allemagne). Les travaux menés cherchent à apprécier dans un premier temps la capacité de transposabilité des modèles hydrologiques ainsi que matérialiser l’intérêt d’une approche multimodèle dans ce contexte de changements climatiques. Par la suite, la démarche évalue la contribution des différents outils à l’incertitude cumulée, puis cherche à comprendre l’origine de leur sensibilité. Cette analyse s’appuie sur l’usage de critères de performance, de représentations graphiques des écoulements, d’outils statistiques et d’indicateurs hydrologiques du changement. Les incertitudes liées aux membres climatiques sont également évaluées pour le bassin versant québécois et permettent une comparaison avec les outils principalement étudiés. Les résultats révèlent que notre capacité à produire un diagnostic de l’incidence du changement climatique sur le régime hydrique des deux bassins versants est distinctement affectée par le choix des outils hydro-météorologiques globaux conceptuels. Chacun de ceux-ci ajoute à l’incertitude avec cependant une plus grande prédominance liée au choix des formules d’évapotranspiration potentielle et des modèles hydrologiques, les modules de neige étant eux plus transparents. Néanmoins, l’analyse comparative indique que le choix du membre climatique apporte encore plus à l’incertitude cumulée que les outils spécifiquement évalués. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques de deux bassins, ainsi que de proposer une démarche méthodologique originale pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques. / Modeling climate change impacts on water resources remains one of the major challenges for the scientific community. This task is complex and contains numerous cumulated uncertainties all along the modeling process, from the greenhouse gas scenarios definition to the hydrological projections. All the modeling tools can thus potentially affect our ability to render a diagnosis of the impacts of climate changes on water resources. In this context, modeling uncertainty related to 20 lumped conceptual hydrological models, 24 potential evapotranspiration formulations, and 7 snow modules was evaluated on two catchments: au Saumon (Province of Quebec, Canada) and Schlehdorf (State of Bavaria, Germany). This work first assessed the transposability in time of the hydrological models and examined the interest of the multimodel approach in a climate change context. Then, contribution of the different tools to cumulated uncertainty is evaluated, followed by an investigation of individual sensitivity origins. This analysis was based on performance criteria, discharge graphical displays, statistics tools, and hydrological indicators of changes in water resources. More, uncertainties related to climatic members are also appraised on the Quebec catchment to allow a direct comparison with the principal studied tools. Results demonstrated that our capacity to render a diagnosis of the impacts of climate change on water resources on the two studied catchments was highly connected to the choice of the hydro-meteorological lumped modeling tools. Each one contributed to the total uncertainty; however, with a larger prevalence for the potential evapotranspiration formulations and hydrological models, snow modules being more neutral. Nevertheless, comparative analysis showed that the selection of a climatic member was affecting the total uncertainty the most. This research proposed a detailed analysis on our capacity to realise a diagnosis of the impacts of climate change on water resources for two studied catchments and provided a specific and original methodology directly applicable and adjustable to other hydro-climatic contexts.
179

Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes

Sid-Ali, Ahmed 22 February 2019 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles. / This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
180

Finding optimal paths on dynamic road networks

Bergeron Guyard, Alexandre 13 April 2018 (has links)
Ce document examine différentes méthodes pour calculer des chemins optimaux sur des graphes dynamiques. Deux grandes approches sont comparées: l’approche déterministe et l’approche probabiliste. L’approche déterministe prend pour acquise une certaine connaissance préalable des changements à venir dans l’environnement. L’approche probabiliste tente de modéliser et traiter l’incertitude. Une variante dynamique de l’algorithme de Dijkstra est détaillée dans le contexte déterministe. Les paradigmes des Markov Decision Processes (MDP) et Partially Observable Markov Decision Processes sont explorés dans le cadre du problème probabiliste. Des applications et mesures sont présentées pour chaque approche. On constate une relation inverse entre la calculabilité des approches proposées et leur potentiel d’application pratique. L’approche déterministe représente une solution très efficace à une version simplifiée du problème. Les POMDP s’avèrent un moyen théorique puissant dont l’implantation est impossible pour des problèmes de grande taille. Une alternative est proposée dans ce mémoire à l’aide des MDP. / This document examines different methods to compute optimal paths on dynamic graphs. Two general approaches are compared: deterministic and probabilistic. The deterministic approach takes for granted knowledge of the environment’s future behaviour. The probabilistic approach attempts to model and manage uncertainty. A dynamic version of Dijkstra’s algorithm is presented for the deterministic solution. Markov Decision Processes and Partially Observable Markov Decision Processes are analysed for the probabilistic context. Applications and measures of performance are given for each approach. We observe a reverse relationship between computability and applicability of the different approaches. Deterministic approaches prove a fast and efficient way to solve simpler versions of the problem. POMDPs are a powerful theoretical model that offers little potential of application. An alternative is described through the use of MDPs.

Page generated in 0.0883 seconds