81 |
Physically Based Modeling and Simulation for Virtual Environment based Surgical TrainingNatsupakpong, Suriya January 2010 (has links)
No description available.
|
82 |
Investigación industrial en técnicas avanzadas de modelado por computador para la adaptación del diseño de calzado al paradigma de la Industria 4.0Calabuig-Barbero, Eduardo 11 June 2024 (has links)
La Industria 4.0 ha permitido la explotación de los avances tecnológicos recientes, integrando todos los elementos de fabricación y sistemas de hibridación del mundo físico. Para ello incorpora habilitadores digitales como la robótica colaborativa, impresión 3D o el Internet de las Cosas entre otros. En los sectores industriales, esto ha favorecido la mejora de la eficiencia de sus procesos, la reducción de los costes de fabricación y del impacto medioambiental. También ayudan a una fabricación más flexible, facilitando la adaptación a los nuevos requerimientos del mercado. Este hecho, es especialmente relevante en industrias dinámicas y manufactureras como el sector del calzado. A pesar del carácter tradicional y manufacturero de la industria del calzado, cada vez está más extendido el uso de la tecnología en sus procesos. Concretamente, la tecnología CAD se aplica desde hace años en la industria del calzado, sobre todo para procesos de diseño y producción. Esto ha permitido un avance significativo en la automatización de procesos de fabricación, por ejemplo, con el uso de las máquinas de corte automático. Hoy en día, con la evolución de la tecnología y, en concreto, con la de los entornos 3D para la representación de geometría CAD, ya es posible visualizar un modelo virtual del producto con un alto nivel de realismo. La investigación industrial realizada en INESCOP está centrada en necesidades concretas detectadas en la industria. INESCOP tiene un conocimiento profundo del sector del calzado y mantiene una estrecha relación con las empresas que lo forman. Gracias a esto, es posible conocer de primera mano las necesidades de la industria, trabajar en soluciones que ayuden a la flexibilidad de la producción, el ahorro de tiempos y costes en el desarrollo de los productos, pero que requieran de una inversión lo más reducida posible y adaptable a la particularidad de los procesos y productos del sector. Soluciones que aporten un valor añadido en los procesos de la empresa y les ayude a su mejora competitiva. Bajo este marco de innovación y tecnología, se ha llevado a cabo la investigación industrial en la que se ha trabajado en el desarrollo de un modelo computacional para la representación virtual de geometrías 3D de calzado compatible con entornos de base tecnológica diferente. El modelo propuesto adapta las diferentes características de los entornos OpenGL y WebGL y hace posible una visualización idéntica de una escena CAD 3D, además basándose en una potente metodología que consigue imitar con un alto nivel de realismo el comportamiento de la luz, brillos y sombras del mundo físico (técnica PBR, Physically Based Rendedering). Ahondando en la representación óptima y optimizada de geometría CAD en estos entornos tridimensionales, también se ha trabajado en la mejora y optimización de la información geométrica de los modelos CAD que se utilizan en estos entornos de representación. Para ello, en la presente tesis se expone la implementación y prueba de los principales métodos de remallado quad y su validez para la aplicación en el calzado. Con el fin de facilitar el uso de estas geometrías en operaciones de diseño y modelado, y para conseguir la optimización y organización de la información que permita la explotación de los entornos de bajas prestaciones. Además, se resuelve una de las deficiencias que presentan estos métodos de remallado quad, que es la pérdida de información inherente a la geometría, como por ejemplo las coordenadas de textura. Esta información es primordial para la representación virtual del modelo CAD y para su utilización en posteriores procesos industriales.
|
83 |
Echantillonage d'importance des sources de lumières réalistes / Importance Sampling of Realistic Light SourcesLu, Heqi 27 February 2014 (has links)
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble. / Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process.
|
84 |
3D herní svět v OpenGL / 3D Game World in OpenGLBuchta, David January 2017 (has links)
Focus of this master's thesis is a study of modern techniques in computer graphics and designing and developing custom application based on which could be developed new game engine. In this thesis are highlighted techniques for creating large terrains, advanced shadows, physically based sky rendering and drawing large set of objects. Finally, performance testing of these modules is performed.
|
85 |
Fyzikální modelování a simulace / Physically-based Modeling and SimulationDvořák, Radim January 2014 (has links)
Disertační práce se zabývá modelováním znečištění ovzduší, jeho transportních a disperzních procesů ve spodní části atmosféry a zejména numerickými metodami, které slouží k řešení těchto modelů. Modelování znečištění ovzduší je velmi důležité pro předpověď kontaminace a pomáhá porozumět samotnému procesu a eliminaci následků. Hlavním tématem práce jsou metody pro řešení modelů popsaných parciálními diferenciálními rovnicemi, přesněji advekčně-difúzní rovnicí. Polovina práce je zaměřena na známou metodu přímek a je zde ukázáno, že tato metoda je vhodná k řešení určitých konkrétních problémů. Dále bylo navrženo a otestováno řešení paralelizace metody přímek, jež ukazuje, že metoda má velký potenciál pro akceleraci na současných grafických kartách a tím pádem i zvětšení přesnosti výpočtu. Druhá polovina práce se zabývá poměrně mladou metodou ELLAM a její aplikací pro řešení atmosférických advekčně-difúzních rovnic. Byla otestována konkrétní forma metody ELLAM společně s navrženými adaptacemi. Z výsledků je zřejmé, že v mnoha případech ELLAM překonává současné používané metody.
|
86 |
An evaluation of deep learning models for urban floods forecasting / En utvärdering av modeller för djupinlärning för prognoser över översvämningar i städerMu, Yang January 2022 (has links)
Flood forecasting maps are essential for rapid disaster response and risk management, yet the computational complexity of physically-based simulations hinders their application for efficient high-resolution spatial flood forecasting. To address the problems of high computational cost and long prediction time, this thesis proposes to develop deep learning neural networks based on a flood simulation dataset, and explore their potential use for flood prediction without learning hydrological modelling knowledge from scratch. A Fully Convolutional Network (FCN), FCN with multiple outputs (Multioutput FCN), UNet, Graph-based model and their Recurrent Neural Network (RNN) variants are trained on a catchment area with twelve rainfall events, and evaluated on two cases of a specific rainfall event both quantitatively and qualitatively. Among them, Convolution-based models (FCN, Multioutput FCN and UNet) are commonly used to solve problems related to spatial data but do not encode the position and orientation of objects, and Graph-based models can capture the structure of the problem but require higher time and space complexity. RNN-based models are effective for modelling time-series data, however, the computation is slow due to its recurrent nature. The results show that Multioutput FCN and the Graph-based model have significant advantages in predicting deep water depths (>50 cm), and the application of recurrent training greatly improves the long-term flood prediction accuracy of the base deep learning models. In addition, the proposed recurrent training FCN model performs the best and can provide flood predictions with high accuracy.
|
87 |
Impact de la résolution et de la précision de la topographie sur la modélisation de la dynamique d’invasion d’une crue en plaine inondable / Ảnh hưởng của độ phân giải và độ chính xác của số liệu tới mô phỏng lũ lụtNguyen, Thanh Don 09 November 2012 (has links)
Nous analysons dans cette thèse différents aspects associés à la modélisation des écoulements à surface libre en eaux peu profondes (Shallow Water). Nous étudions tout d’abord le système d’équations de Saint-Venant à deux dimensions et leur résolution par la méthode numérique des volumes finis, en portant une attention particulière sur les aspects hyperboliques et conservatifs. Ces schémas permettent de traiter les équilibres stationnaires, les interfaces sec/mouillé et aussi de modéliser des écoulements subcritique, transcritique et supercritique. Nous présentons ensuite la théorie de la méthode d’assimilation variationnelle de données adaptée à ce type d’écoulement. Son application au travers des études de sensibilité est longuement discutée dans le cadre de l'hydraulique à surface libre. Après cette partie à caractère théorique, la partie tests commence par une qualification de l’ensemble des méthodes numériques qui sont implémentées dans le code DassFlow, développé à l’Université de Toulouse, principalement à l’IMT mais aussi à l’IMFT. Ce code résout les équations Shallow Water par une méthode de volumes finis et est validé par comparaison avec les solutions analytiques pour des cas tests classiques. Ces mêmes résultats sont comparés avec un autre code d’hydraulique à surface libre aux éléments finis en deux dimensions, Telemac 2D. Une particularité notable du code DassFlow est de permettre l’assimilation variationnelle de données grâce au code adjoint permettant le calcul du gradient de la fonction coût. Ce code adjoint a été obtenu en utilisant l'outil de différentiation automatique Tapenade (Inria). Nous testons ensuite sur un cas réel, hydrauliquement complexe, différentes qualités de Modèles Numériques de Terrain (MNT) et de bathymétrie du lit d’une rivière. Ces informations proviennent soit d’une base de données classique type IGN, soit d’informations LIDAR à très haute résolution. La comparaison des influences respectives de la bathymétrie, du maillage et du type de code utilisé, sur la dynamique d’inondation est menée très finement. Enfin nous réalisons des études cartographiques de sensibilité aux paramètres du modèle sur DassFlow. Ces cartes montrent l’influence respective des différents paramètres ou de la localisation des points de mesure virtuels. Cette localisation optimale de ces points est nécessaire pour une future assimilation de données efficiente. / We analyze in this thesis various aspects associated with the modeling of free surface flows in shallow water approximation. We first study the system of Saint-Venant equations in two dimensions and its resolution with the numerical finite volumes method, focusing in particular on aspects hyperbolic and conservative. These schemes can process stationary equilibria, wetdry interfaces and model subcritical, transcritical and supercritical flows. After, we present the variational data assimilation method theory fitted to this kind of flow. Its application through sensitivity studies is fully discussed in the context of free surface water. After this theoretical part, we test the qualification of numerical methods implemented in the code Dassflow, developed at the University of Toulouse, mainly at l'IMT, but also at IMFT. This code solves the Shallow Water equations by finite volume method and is validated by comparison with analytical solutions for standard test cases. These results are compared with another hydraulic free surface flow code using finite elements in two dimensions: Telemac2D. A significant feature of the Dassflow code is to allow variational data assimilation using the adjoint method for calculating the cost function gradient. The adjoint code was obtained using the automatic differentiation tool Tapenade (INRIA). Then, the test is carried on a real hydraulically complex case using different qualities of Digital Elevation Models (DEM) and bathymetry of the river bed. This information are provided by either a conventional database types IGN or a very high resolution LIDAR information. The comparison of the respective influences of bathymetry, mesh size, kind of code used on the dynamics of flooding is very finely explored. Finally we perform sensitivity mapping studies on parameters of the Dassflow model. These maps show the respective influence of different parameters and of the location of virtual measurement points. This optimal location of these points is necessary for an efficient data assimilation in the future.
|
88 |
Integrated Flood Modeling for Improved Understanding of River-Floodplain Hydrodynamics: Moving beyond Traditional Flood MappingSiddharth Saksena (7026707) 15 August 2019 (has links)
<div>With increasing focus on large scale planning and allocation of resources for protection against future flood risk, it is necessary to analyze and improve the deficiencies in the conventional flood modeling approach through a better understanding of the interactions between river hydrodynamics and subsurface processes. Recent studies have shown that it is possible to improve the flood inundation modeling and mapping using physically-based integrated models that incorporate observable data through assimilation and simulate hydrologic fluxes using the fundamental laws of conservation of mass at multiple spatiotemporal scales. However, despite the significance of integrated modeling in hydrology, it has received relatively less attention within the context of flood hazard. The overall aim of this dissertation is to study the heterogeneity in complex physical processes that govern the watershed response during flooding and incorporate these effects in integrated models across large scales for improved flood risk estimation. Specifically, this dissertation addresses the following questions: (1) Can physical process incorporation using integrated models improve the characterization of antecedent conditions and increase the accuracy of the watershed response to flood events? (2) What factors need to be considered for characterizing scale-dependent physical processes in integrated models across large watersheds? (3) How can the computational efficiency and process representation be improved for modeling flood events at large scales? (4) Can the applicability of integrated models be improved for capturing the hydrodynamics of unprecedented flood events in complex urban systems?</div><div><br></div><div>To understand the combined effect of surface-subsurface hydrology and hydrodynamics on streamflow generation and subsequent inundation during floods, the first objective incorporates an integrated surface water-groundwater (SW-GW) modeling approach for simulating flood conditions. The results suggest that an integrated model provides a more realistic simulation of flood hydrodynamics for different antecedent soil conditions. Overall, the findings suggest that the current practice of simulating floods which assumes an impervious surface may not be providing realistic estimates of flood inundation, and that an integrated approach incorporating all the hydrologic and hydraulic processes in the river system must be adopted.</div><div><br></div><div>The second objective focuses on providing solutions to better characterize scale-dependent processes in integrated models by comparing two model structures across two spatial scales and analyzing the changes in flood responses. The results indicate that since the characteristic length scales of GW processes are larger than SW processes, the intrinsic scale (or resolution) of GW in integrated models should be coarser when compared to SW. The results also highlight the degradation of streamflow prediction using a single channel roughness when the stream length scales are increased. A distributed channel roughness variable along the stream length improves the modeled basin response. Further, the results highlight the ability of a dimensionless parameter 𝜂1, representing the ratio of the reach length in the study region to maximum length of the single stream draining at that point, for identifying which streams may require a distributed channel roughness.</div><div><br></div><div>The third objective presents a hybrid flood modeling approach that incorporates the advantages of both loosely-coupled (‘downward’) and integrated (‘upward’) modeling approaches by coupling empirically-based and physically-based approaches within a watershed. The computational efficiency and accuracy of the proposed hybrid modeling approach is tested across three watersheds in Indiana using multiple flood events and comparing the results with fully- integrated models. Overall, the hybrid modeling approach results in a performance comparable to a fully-integrated approach but at a much higher computational efficiency, while at the same time, providing objective-oriented flexibility to the modeler.</div><div><br></div><div>The fourth objective presents a physically-based but computationally-efficient approach for modeling unprecedented flood events at large scales in complex urban systems. The application of the proposed approach results in accurate simulation of large scale flood hydrodynamics which is shown using Hurricane Harvey as the test case. The results also suggest that the ability to control the mesh development using the proposed flexible model structure for incorporating important physical and hydraulic features is as important as integration of distributed hydrology and hydrodynamics.</div>
|
89 |
Modélisation distribuée à base physique du transfert hydrologique des polluants routiers de l’échelle locale à l’échelle du quartier / Distributed and physically-based modelling of hydrological transfer of road pollutants from local to city district scalesHong, Yi 03 January 2017 (has links)
Le développement des réseaux séparatifs entraîne le transfert fréquent de polluants urbains vers les milieux récepteurs (plans d’eau, rivières, etc.). La compréhension des processus de production et de lessivage des polluants dans le milieu urbain est pourtant incomplète à l’heure actuelle. Afin de répondre aux questions liées à la gestion des eaux urbaines, l’amélioration des connaissances des processus physiques est nécessaire, tant au niveau des surfaces urbaines que les réseaux d'assainissement. Pour cela, la modélisation du transfert hydrologique des polluants en milieu urbain peut être un outil précieux.Cette thèse a pour objectif de développer et d'analyser des modèles distribués à base physique pour simuler les flux de polluants routiers (Matières En Suspension (MES), Hydrocarbures, Métaux) dans un environnement urbain. Elle s'inscrit dans le cadre du projet ANR "Trafipollu" et bénéficie des résultats expérimentaux mis en œuvre dans ce projet pour la calibration et validation des modèles utilisés. Le travail de thèse s’articule autour de deux échelles de modélisation : l’échelle locale et l’échelle du quartier.A l'échelle locale, le code FullSWOF (volumes finis, schéma numérique d'ordre 2) couplé au modèle d’érosion d'Hairsine and Rose (1992a; 1992b) et des données géographiques très détaillées (résolution spatiale centimétrique) ont été utilisés et adaptés afin d'améliorer nos connaissances des processus physiques du lessivage des polluants sur les surfaces urbaines. La comparaison aux mesures en continu permet d’évaluer la performance d’une modélisation physique pour représenter les variations spatiales et temporelles des processus de transferts des polluants sur les surfaces urbaines. Les analyses des résultats obtenus permettent de constater la prédominance des effets d'arrachement liés à la pluie sur les processus d'entrainement par l'advection sur la majeure partie du bassin versant routier. L’utilisation d’un modèle d’érosion pour modéliser le transport particulaire en zone urbaine est une innovation importante de cette thèse.A l’échelle du quartier, la deuxième étape du travail consiste à coupler séquentiellement le modèle TREX (Velleux, England, et al., 2008) avec le modèle CANOE (Alison, 2005), nommé "TRENOE" plateforme. En changeant différentes options de mise en œuvre et de configurations du modèle, l’adaptation de la précision numérique et l’utilisation de données détaillées d’occupation du sol semblent être les facteurs clés pour une telle modélisation. Par ailleurs, ce couplage a montré des problèmes de fond tels que la modélisation du schéma numérique des flux en surface (seulement dans 4 directions), ainsi que l'utilisation de l'équation USLE pour simuler l'érosion en milieu urbain, ne comprenant pas d’impact des gouttes de pluie pour la modélisation.Pour remédier à ces défauts, la plateforme opensource LISEM-SWMM est développée en couplant le modèle LISEM (De Roo, Wesseling, et al., 1996), modèle d’érosion développé initialement pour le milieu naturel, et le modèle SWMM (Rossman, 2010). Pour la première fois, la modélisation hydrologique s’appuie aussi sur l’utilisation de sorties de modèles atmosphériques pour les dépôts des particules fines (PM10), hydrocarbures et métaux. Les résultats montrent que l’emploi de modèles totalement distribués peut arriver à reproduire de manière très fine les dynamiques des particules, des hydrocarbures et des métaux. Même si à ce stade la plateforme développée nécessite des améliorations pour adapter aux utilisations dans le champ opérationnel, ceci constitue une avancée pour le domaine de modélisation du transfert hydrologique des polluants routiers en milieu urbain / Nowadays, the increasing use of separate stormwater systems causes a frequent transport of urban pollutants into receiving water bodies (lakes, rivers). However, current studies still lack of the knowledge of urban build-up and wash-off processes. In order to address urban management issues, better understanding of physical mechanism is required not only for the urban surfaces, but also for the sewer systems. In this context, the modelling of hydrological transfer of urban pollutants can be a valuable tool.This thesis aims to develop and assess the physically-based and distributed models to simulate the transport of traffic-related pollutants (suspended solids, hydrocarbons, heavy metals) in urban stormwater runoffs. This work is part of the ANR "Trafipollu" project, and benefit from the experimental results for model calibration and validation. The modelling is performed at two scales of the urban environment: at the local scale and at the city district scale.At the local scale of urban environment, the code FullSWOF (second-order finite volume scheme) coupled with Hairsine and Rose model (1992a; 1992b) and detailed monitoring surveys is used to evaluate urban wash-off process. Simulations over different rainfall events represent promising results in reproducing the various dynamics of water flows and particle transfer on the urban surfaces. Spatial analysis of wash-off process reveals that the rainfall-driven impacts are two orders of magnitude higher than flow-drive effects. These findings contribute to a significant improvement in the field of urban wash-off modelling. The application of soil erosion model to the urban context is also an important innovation.At the city district scale, the second step consists of coupling the TREX model (Velleux, England, et al., 2008) and the CANOE model, named "TRENOE" platform. By altering different options of model configurations, the adequate numerical precision and the detailed information of landuse data are identified as the crucial elements for achieving acceptable simulations. Contrarily, the high-resolution topographic data and the common variations of the water flow parameters are not equally significant at the scale of a small urban catchment. Moreover, this coupling showed fundamental problems of the model structure such as the numerical scheme of the overland flow (only 4 directions), and the empirical USLE equations need to be completed by raindrop detachment process.To address these shortcomings, the LISEM - SWMM platform is developed by coupling the open-source LISEM model (De Roo, Wesseling, et al., 1996), which is initially developed for soil erosion simulations, and the SWMM model (Rossman, 2010). For the first time, the hydrological model is also supported by the simulations of atmospheric dry deposits of fine particles (PM10), hydrocarbons and heavy metals. The performance of water flow and TSS simulations are satisfying with the calibrated parameters. Considering the hydrocarbons and heavy metals contents of different particle size classes, simulated event mean concentration of each pollutant is comparable to local in-situ measurements. Although the platform at current stage still needs improvements in order to adapt to the operational applications, the present modelling approach contributes to an innovative technology in the field of modelling of hydrological transfer of the traffic-related pollutants in urban environment
|
90 |
Modélisation physique de la température des cours d'eau à l'échelle régionale : application au bassin versant de la Loire / Physical modelling of stream water temperature at a regional scale : Loire bassin case studyBeaufort, Aurélien 17 February 2015 (has links)
Cette étude correspond au développement de deux approches de modélisation à base physique basées sur le concept de température d’équilibre pour simuler la température des cours d’eau à l’échelle du bassin de la Loire (105 km²). La performance de ces deux approches de modélisation est analysée via des chroniques horaires issues du réseau national thermique associé aux cours d’eau (RNT), mis en place par l’ONEMA en 2008. Une première partie est consacrée à l’étude de l’approche de modélisation stationnelle qui résout un bilan énergétique à l’échelle de la station. Cette approche a été testée selon une discrétisation simplifiée par ordre de Strahler puis selon une discrétisation à l’échelle du tronçon hydrographique. Elles simulent avec une très bonne précision la température horaire et journalière pour les grands cours d’eau où l’influence des conditions aux limites amont devient limitée. Une seconde approche dite « par propagation » basée sur une topologie de réseau est développée dans le but d’intégrer, à haute résolution spatiale et temporelle la propagation du signal thermique de l’amont vers l’aval des cours d’eau à une échelle régionale ce qui améliore la performance sur les cours d’eau situés en amont et de bien restituer la dynamique des profils thermiques longitudinaux des grands cours d’eau. / This work corresponds to the development of two physically based modeling approaches based on the equilibrium temperature concept to simulate the stream temperature at the Loire basin scale (105 km²). The performances of these two approaches are analyzed with hourly temperatures provided by the national thermal network associated with rivers (RNT), set up by the ONEMA in 2008. A first part focuses on the study of the 0D approach which solves the heat budget at the local scale. This approach has been tested with a simplified discretization by Strahler order and then with a discretization at the hydrographical reach scale. They simulated accurately hourly and daily temperatures for large rivers where the upstream influence becomes limited. The second part focuses on the approach by propagation based on a network topology in order to integrate the upstream-downstream propagation of the thermal signal with high spatial and temporal resolution at a regional scale which improves performances of rivers located near headwaters and to well reproduces the dynamics of longitudinal thermal profiles for large rivers.
|
Page generated in 0.0826 seconds