51 |
Comparison of epicardial mapping and noncontact endocardial mapping in dog experiments and computer simulationsSabouri, Sepideh 05 1900 (has links)
La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter
en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire.
Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien.
Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation.
Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8
(expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa.
La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique. / Atrial fibrillation is the most common clinical arrhythmia currently affecting 2.3 million patients in North America. To study its mechanisms and potential therapies, animal models of atrial fibrillation have been developed. Epicardial high-density electrical mapping is a well-established experimental instrument to monitor in vivo the activity of the atria in response to pacing, remodeling, arrhythmias and modulation of the autonomic nervous system. In regions that are not accessible by epicardial mapping, noncontact endocardial mapping performed through a balloon catheter may provide a more comprehensive description of atrial activity.
In this study, a dog experiment was designed and analyzed in which electroanatomical
reconstruction, epicardial mapping (103 electrodes), noncontact endocardial mapping (2048 virtual electrodes computed from a 64-channel balloon catheter), and direct-contact endocardial catheter recordings were simultaneously performed. The recording system was also simulated in a computer model of the canine right atrium.
For simulations and experiments (after atrio-ventricular node suppression), activation maps were computed during sinus rhythm. Repolarization was assessed by measuring the area under the atrial T wave (ATa), a marker of repolarization gradients. Results showed an epicardial endocardial correlation coefficient of 0.8 (experiment) and 0.96
(simulation) between activation times, and a correlation coefficient of 0.57 (experiment) and 0.92 (simulation) between ATa values.
Noncontact mapping appears to be a valuable experimental device to retrieve information outside the regions covered by epicardial recording plaques.
|
52 |
Simulation de modèles personnalisés de gliomes pour la planification de thérapies / Simulation of patient-specific glioma models for therapy planningStretton, Erin 14 November 2014 (has links)
Les modèles de croissance tumorale fondés sur l'équation de réaction-diffusion Fisher Kolmogorov FK ont montré des résultats probants dans la reproduction et la prédiction de l'invasion de cellules tumorales du cerveau pour les gliomes. Nous utilisons différentes formulations du modèle FK pour évaluer la nécessité de l’imagerie de diffusion pour construire des modèles spécifiques de Gliomes de Bas Grade GBG, l'étude de l'infiltration de cellules tumorales après une résection chirurgicale de la tumeur, et définir une métrique pour quantifier l’évolution de GBG. L'imagerie en tenseur de diffusion ITD a été suggérée pour modéliser la diffusion anisotrope des cellules tumorales dans la matière blanche du cerveau. Les ITD acquises en basse résolution impactent la précision des résultats des modèles de croissance. Nous utilisons une formulation FK pour décrire l'évolution de la frontière visible de la tumeur pour étudier l'impact du remplacement de l'ITD patient par une hypothèse de diffusion isotrope ou une ITD de référence anisotrope en haute résolution formée par la moyenne des ITD de plusieurs patients. Nous quantifions l'impact du remplacement de l'ITD acquise sur un patient à aide de simulations de croissance tumorales synthétiques et des prévisions d'évolution de la tumeur d'un cas clinique. Cette étude suggère que la modélisation de la croissance du gliome à base de motilité différentielle de tissus donne des résultats un peu moins précis qu'à l'aide d'une ITD. S'abstenir d'utiliser une ITD serait suffisant lors de la modélisation de GBG. Par conséquent, toutes ces options d'ITD sont valides dans une formulation FK pour modéliser la croissance de GBG dans le but d'aider les cliniciens dans la planification du traitement. Après la résection d’une tumeur cérébrale, ils veulent savoir quel serait le meilleur traitement de suivi pour chaque patient : une chimiothérapie pour des tumeurs diffuses ou bien une deuxième résection après un laps de temps donné pour les tumeurs massives. Nous proposons une méthode pour tirer profit de modèles de croissance de gliome FK sur les cas post-opératoires montrant des distorsions du cerveau pour estimer l'infiltration des cellules tumorales au-delà des frontières visibles dans les IRM FLAIR. Notre méthode répond à 2 défis de modélisation : celui du mouvement du parenchyme cérébral après la chirurgie avec une technique de recalage non-linéaire et celui de la segmentation incomplète de la tumeur post-opératoire en combinant 2 cartes d'infiltration : une ayant été simulée à partir d'une image pré-opératoire et l’autre à partir d'une image post-opératoire. Nous avons utilisé les données de 2 patients ayant des GBG afin de démontrer l'efficacité de la méthode. Celle-ci pourrait aider les cliniciens à anticiper la récurrence de la tumeur après une résection et à caractériser l’étendue de l'infiltration non visible par la radiologie pour planifier la thérapie. Pour les GBG visibles par une IRM FLAIR/T2, il y a un débat important au sein du groupe de travail RANO Response Assessment in Neuro-Oncology sur la sélection d'un seuil pertinent des métriques basées sur l’évolution de la taille de la tumeur pour déterminer si la maladie est évolutive ME. Nous proposons une approche pour évaluer la ME du GBG en utilisant des estimations de la vitesse de croissance de la tumeur à partir d'une formulation FK qui prend en compte les irrégularités de forme de la tumeur, les différences de vitesse de croissance entre la matière grise et la matière blanche, et les changements volumétriques. En utilisant les IRM FLAIR de 9 patients, nous comparons les estimations de ME de notre approche proposée avec celles calculées en utilisant les estimations manuelles de la vitesse de croissance tumorale 1D, 2D et 3D et celles calculées en utilisant un ensemble de critères basés sur la taille critères RECIST, Macdonald et RANO. Notre approche est prometteuse pour évaluer la ME du GBG à partir d'un nombre limité d'examens par IRM. / Tumor growth models based on the Fisher Kolmogorov (FK) reaction-diffusion equation have shown convincing results in reproducing and predicting the invasion patterns of glioma brain tumors. In this thesis we use different FK model formulations to i) assess the need of patient-specific DTIs when modeling LGGs, ii) study cancer cell infiltration after tumor resections, and iii) define a metric to determine progressive disease for low-grade glimoas (LGG).Diffusion tensor images (DTIs) have been suggested to model the anisotropic diffusion of tumor cells in brain white matter. However, patient specific DTIs are expensive and often acquired with low resolution, which compromises the accuracy of the tumor growth models' results. We used a FK formulation to describe the evolution of the visible boundary of the tumor to investigate the impact of replacing the patient DTI by i) an isotropic diffusion map or ii) an anisotropic high-resolution DTI atlas formed by averaging the DTIs of multiple patients. We quantify the impact of replacing the patient DTI using synthetic tumor growth simulations and tumor evolution predictions on a clinical case. This study suggests that modeling glioma growth with tissue based differential motility (not using a DTI) yields slightly less accurate results than using a DTI. However, refraining from using a DTI would be sufficient in situations when modeling LGGs. Therefore, any of these DTI options are valid to use in a FK formulation to model LGG growth with the purpose of aiding clinicians in therapy planning.After a brain resection medical professionals want to know what the best type of follow-up treatment would be for a particular patient, i.e., chemotherapy for diffuse tumors or a second resection after a given amount of time for bulky tumors. We propose a thorough method to leverage FK reaction-diffusion glioma growth models on post-operative cases showing brain distortions to estimate tumor cell infiltration beyond the visible boundaries in FLAIR MRIs. Our method addresses two modeling challenges: i) the challenge of brain parenchyma movement after surgery with a non-linear registration technique and ii) the challenge of incomplete post-operative tumor segmentations by combining two infiltration maps, where one was simulated from a pre-operative image and one estimated from a post-operative image. We used the data of two patients with LGG to demonstrate the effectiveness of the proposed three-step method. We believe that our proposed method could help clinicians anticipate tumor regrowth after a resection and better characterize the radiological non-visible infiltrative extent of a tumor to plan therapy.For LGGs captured on FLAIR/T2 MRIs, there is a substantial amount debate on selecting a definite threshold for size-based metrics to determine progressive disease (PD) and it is still an open item for the Response Assessment in Neuro-Oncology (RANO) Working Group. We propose an approach to assess PD of LGG using tumor growth speed estimates from a FK formulation that takes into consideration irregularities in tumor shape, differences in growth speed between gray matter and white matter, and volumetric changes. Using the FLAIR MRIs of nine patients we compare the PD estimates of our proposed approach to i) the ones calculated using 1D, 2D, and 3D manual tumor growth speed estimates and ii) the ones calculated using a set of well-established size-based criteria (RECIST, Macdonald, and RANO). We conclude from our comparison results that our proposed approach is promising for assessing PD of LGG from a limited number of MRI scans. It is our hope that this model's tumor growth speed estimates could one day be used as another parameter in clinical therapy planning.
|
53 |
Flame Spread on Composite Materials for use in High Speed CraftWright, Mark T. 05 November 1999 (has links)
"The use of advanced materials in the construction of high-speed craft is becoming more commonplace. However, there are certain requirements set in the High Speed Craft Code (published by IMO) that restrict the use of materials based on results from full scale room fire testing (ISO 9705). An obvious benefit would be gained by simulating the results of these full-scale tests using bench scale data from the Cone Calorimeter and LIFT apparatus. A flame-spread algorithm developed by Henri Mitler at the National Institute of Standards and Technology was selected for implementation into the zone fire model CFAST. This algorithm was modified from its original form, so that it could simulate flame spread on wall/ceiling lining materials for both sidewall and corner scenarios, including ISO 9705 as prescribed in the High Speed Craft Code. Changes to the algorithm included geometry of flame spread across the ceiling, flame height, radiation exchange, ignition burner heat flux maps, and multiple pyrolysis zones. The new flame spread algorithm was evaluated against room corner test data from four different marine composite materials tested per ISO 9705."
|
54 |
Comparison of epicardial mapping and noncontact endocardial mapping in dog experiments and computer simulationsSabouri, Sepideh 05 1900 (has links)
La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter
en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire.
Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien.
Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation.
Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8
(expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa.
La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique. / Atrial fibrillation is the most common clinical arrhythmia currently affecting 2.3 million patients in North America. To study its mechanisms and potential therapies, animal models of atrial fibrillation have been developed. Epicardial high-density electrical mapping is a well-established experimental instrument to monitor in vivo the activity of the atria in response to pacing, remodeling, arrhythmias and modulation of the autonomic nervous system. In regions that are not accessible by epicardial mapping, noncontact endocardial mapping performed through a balloon catheter may provide a more comprehensive description of atrial activity.
In this study, a dog experiment was designed and analyzed in which electroanatomical
reconstruction, epicardial mapping (103 electrodes), noncontact endocardial mapping (2048 virtual electrodes computed from a 64-channel balloon catheter), and direct-contact endocardial catheter recordings were simultaneously performed. The recording system was also simulated in a computer model of the canine right atrium.
For simulations and experiments (after atrio-ventricular node suppression), activation maps were computed during sinus rhythm. Repolarization was assessed by measuring the area under the atrial T wave (ATa), a marker of repolarization gradients. Results showed an epicardial endocardial correlation coefficient of 0.8 (experiment) and 0.96
(simulation) between activation times, and a correlation coefficient of 0.57 (experiment) and 0.92 (simulation) between ATa values.
Noncontact mapping appears to be a valuable experimental device to retrieve information outside the regions covered by epicardial recording plaques.
|
55 |
Development Of A Chemical Kinetic Model For A Fluidized-bed Sewage Sludge GasifierChampion, Wyatt 01 January 2013 (has links)
As the need for both sustainable energy production and waste minimization increases, the gasification of biomass becomes an increasingly important process. What would otherwise be considered waste can now be used as fuel, and the benefits of volume reduction through gasification are seen in the increased lifespan of landfills. Fluidized-bed gasification is a particularly robust technology, and allows for the conversion of most types of waste biomass. Within a fluidized-bed gasifier, thermal medium (sand) is heated to operating temperature (around 1350°F) and begins to fluidize due to the rapid expansion of air entering the bottom of the reactor. This fluidization allows for excellent heat transfer and contact between gases and solids, and prevents localized "hot spots" within the gasifier, thereby reducing the occurrence of ash agglomeration within the gasifier. Solids enter the middle of the gasifier and are rapidly dried and devolatilized, and the products of this step are subsequently oxidized and then reduced in the remainder of the gasifier. A syngas composed mainly of N2, H2O, CO2, CO, CH4, and H2 exits the top of the gasifier. A computer model was developed to predict the syngas composition and flow rate, as well as ash composition and mass flow rate from a fluidized-bed gasifier. A review of the literature was performed to determine the most appropriate modeling approach. A chemical kinetic model was chosen, and developed in MATLAB using the Newton-Raphson method to solve sets of 18 simultaneous equations. These equations account for mass and energy balances throughout the gasifier. The chemical kinetic rate expressions for these reactions were sourced from the literature, and some values modified to better fit the predicted gas composition to literature data.
|
56 |
Modélisation de l’ablation radiofréquence pour la planification de la résection de tumeurs abdominales / Computational modeling of radiofrequency ablation for the planning and guidance of abdominal tumor treatmentAudigier, Chloé 14 October 2015 (has links)
L'ablation par radiofréquence (ARF) de tumeurs abdominales est rendue difficile par l’influence des vaisseaux sanguins et les variations de la conductivité thermique, compliquant la planification spécifique à un patient donné. En fournissant des outils prédictifs, les modèles biophysiques pourraient aider les cliniciens à planifier et guider efficacement la procédure. Nous introduisons un modèle mathématique détaillé des mécanismes impliqués dans l’ARF des tumeurs du foie comme la diffusion de la chaleur et la nécrose cellulaire. Il simule l’étendue de l’ablation à partir d’images médicales, d’après lesquelles des modèles personnalisés du foie, des vaisseaux visibles et des tumeurs sont segmentés. Dans cette thèse, une nouvelle approche pour résoudre ces équations basée sur la méthode de Lattice Boltzmann est introduite. Le modèle est d’abord évalué sur des données de patients qui ont subi une ARF de tumeurs du foie. Ensuite, un protocole expérimental combinant des images multi-modales, anatomiques et fonctionnelles pré- et post-opératoires, ainsi que le suivi de la température et de la puissance délivrée pendant l'intervention est présenté. Il permet une validation totale du modèle qui considère des données les plus complètes possibles. Enfin, nous estimons automatiquement des paramètres personnalisés pour mieux prédire l'étendu de l’ablation. Cette stratégie a été validée sur 7 ablations dans 3 cas cliniques. A partir de l'étude préclinique, la personnalisation est améliorée en comparant les simulations avec les mesures faites durant la procédure. Ces contributions ont abouti à des résultats prometteurs, et ouvrent de nouvelles perspectives pour planifier et guider l’ARF. / The outcome of radiofrequency ablation (RFA) of abdominal tumors is challenged by the presence of blood vessels and time-varying thermal conductivity, which make patient-specific planning extremely difficult. By providing predictive tools, biophysical models may help clinicians to plan and guide the procedure for an effective treatment. We introduce a detailed computational model of the biophysical mechanisms involved in RFA of hepatic tumors such as heat diffusion and cellular necrosis. It simulates the extent of ablated tissue based on medical images, from which patient-specific models of the liver, visible vessels and tumors are segmented. In this thesis, a new approach for solving these partial differential equations based on the Lattice Boltzmann Method is introduced. The model is first evaluated against clinical data of patients who underwent RFA of liver tumors. Then, a comprehensive pre-clinical experiment that combines multi-modal, pre- and post-operative anatomical and functional images, as well as the interventional monitoring of the temperature and delivered power is presented. This enables an end-to-end validation framework that considers the most comprehensive data set for model validation. Then, we automatically estimate patient-specific parameters to better predict the ablated tissue. This personalization strategy has been validated on 7 ablations from 3 clinical cases. From the pre-clinical study, we can go further in the personalization by comparing the simulated temperature and delivered power with the actual measurements during the procedure. These contributions have led to promising results, and open new perspectives in RFA guidance and planning.
|
57 |
Modélisation de la réponse de l'architecture au climat local / Modelling the architecture response to the local climateRodriguez, Gonzalo 10 December 2013 (has links)
Dans le contexte actuel de crise énergétique mondial, la consommation d'énergie et l'empreinte carbone, prennent une influence inévitable dés la conception architectonique,premier maillon du processus de construction. Les nouvelles contraintes associées aux accords internationaux tels que, le Sommet de Rio (1992), le protocole de Kyoto (1997) et,spécifiquement en France, le Grenelle Environnement (2007), diversifient le nombre des intervenants dans la conception architecturale, réservée traditionnellement aux architectes.La course pour diviser par deux la consommation énergétique des bâtiments (RT 2012),ainsi que lʼobjectif de diviser par quatre les émissions de gaz à effet serre à l'horizon 2050,mettent en péril la liberté du processus créatif architecturale. Des exigences si fortes dérivent vers des solutions techniques banalisantes et amènent à la standardisation et à la délocalisation des éléments architecturaux. L'objectif de cette recherche est de placer la démarche architectonique de nouveau au centre de la conception durable. Ceci devient possible en validant la performance de la forme de la maison en tant que réponse efficace face à des contraintes environnementales. Pour cela nous nous intéressons à la maison vernaculaire, toujours caractérisée par des formes simples et adaptées à leur contextes socioculturel et géo-climatique. Cet habitat, qui est le résultat d'une optimisation sur du long terme, est forcément durable. L'habitat vernaculaire est analysé ici à la recherche des motivations qui l'ont façonné. Pour cela sont considérés des circonstances géographiques et climatiques qui peuvent déterminer la forme de ces maisons. Nous estimons qu'il est possible d'obtenir de l'information sur l'environnement géoclimatique à partir de l'analyse de déterminants architectoniques visibles, et d'identifier des relations d'influence qui les lient. Ces relations d'influence sont modélisées suivant une approche qui s'appuie sur une représentation qualitative de la connaissance. L'établissement d'un modèle construit à partir de fonctions qualitatives, permet d'effectuer un raisonnement automatique, à partir de la connaissance recueillie sur l'environnement géo-climatique, pour établir les déterminants architectoniques visibles correspondants. Finalement l'outil proposé a une double vocation : permettre d'évaluer la performance de la forme des nouvelles constructions et structurer une démarche de conception d'habitations adaptées à un contexte local. / In the context of the current energy crisis, energy consumption and the carbon trace have become a mayor influence in the architectonic conception, the first link in the construction process. Recent constrains associated with international agreements such as the Rio Summit (1992), the Kyoto Protocole and, specifically in France, Grenelle delʼEnvironnement Round Table (2007), have diversified the number of stakeholders in the architectural conception, traditionally reserved to architects. The race to reduce by hal fenergy consumption in buildings (RT 2012) as well as the goal to cut by four greenhouse gas emissions by 2050 (Grenelle de lʼEnvironnement), puts the architectural creative process in jeopardy. Such demanding requirements favor trivial technical solutions and encourage standardization and off shoring of architectural elements.This researchʼs purpose is to place the architectural approach at the center of the sustainable conception. This allows the validation of the performance of a houseʼs shape as an effective response to environmental constrains. For this, we have placed our interest in the vernacular house, usually characterized by simple forms and adapted to their sociocultural and geo-climatic context. This habitat, which has resulted from a long term optimization, is inevitably sustainable. The vernacular habitat is analyzed herein in the search of the motivations that have shaped it. In consequence, geographical and climate circumstances that could have determined the shape of houses have been considered. We claim that from the analysis of visible architectural features it is possible to obtain information on the geo-climatic environment as well as the influence relationships that connect them.These influence relationships are modeled following a qualitative approach supported by a qualitative representation of knowledge. The representation, based upon qualitative functions, enables automatic reasoning, starting from gathered awareness of geo-climatic environment, for establishing corresponding architectural features. Finally, the modeled result both allows the evaluation of the form of new houses and assist the conception of houses adapted to their local context.
|
58 |
Modelling the Neural Representation of Interaural Level Differences for Linked and Unlinked Bilateral Hearing AidsCheung, Stephanie 11 1900 (has links)
Sound localization is a vital aspect of hearing for safe navigation of everyday environments. It is also an important factor in speech intelligibility. This ability is facilitated by the interaural level difference (ILD) cue, which arises from binaural hearing: a sound will be more intense at the nearer ear than the farther. In a hearing-impaired listener, this binaural cue may not be available for use and localization may be diminished.
While conventional, bilateral, wide dynamic range compression (WDRC) hearing aids distort the interaural level difference by independently altering sound intensities in each ear, wirelessly-linked devices have been suggested to benefit this task by matching amplification in order to preserve ILD. However, this technology has been shown to have varying degrees of success in aiding speech intelligibility and sound localization.
As hearing impairment has wide-ranging adverse impacts to physical and mental health, social activity, and cognition, the task of localization improvement must be urgently addressed. Toward this end, neural modelling techniques are used to determine neural representations of ILD cues for linked and unlinked bilateral WDRC hearing aids.
Findings suggest that wirelessly-linked WDRC is preferable over unlinked hearing aids or unaided, hearing-impaired listening, although parameters for optimal benefit are dependent on sound level, frequency content, and preceding sounds. / Thesis / Master of Applied Science (MASc)
|
59 |
Analysis of the Sediment Transport Capabilities of FESWMS FST2DHIpson, Mark K. 19 August 2006 (has links) (PDF)
Many numeric models simulate the transport of sediment within rivers and streams. Engineers use such models to monitor the overall condition of a river or stream and to analyze the impact that the aggradation and degradation of sediment has on the stability of bridge piers and other features within a stretch of a river or stream. A model developed by the Federal Highway Administration, FST2DH, was recently modified to include the simulation of sediment movement within a channel. The tools for modeling sediment movement with FST2DH remain unproven. This thesis examines the sediment capabilities of FST2DH. It evaluates the sediment results for reasonableness and compares the results to those obtained from a sediment transport model developed by the Army Corps of Engineers, SED2D WES. Resulting concentrations from another program created by the Army Corps of Engineers, SAMwin, provide additional data comparison for FST2DH sediment solutions. Several test cases for laboratory flumes give additional insight into the model's functionality. Finally, this thesis suggests further enhancements for the sediment capabilities of the FST2DH model and provides direction for future research of the sediment transport capabilities of FST2DH. Results show that FST2DH appropriately models sediment movement in channels with clear-water and equilibrium transport rate inflow conditions. Transport formulas found to be functional include the Engelund—Hansen, Yang sand and gravel, and Meyer-Peter—Mueller equations. FST2DH has difficulty modeling channels with user-specified inflow concentrations or transport rates, models with very small particles, models containing hydraulic jumps, and models with small elements. The test cases that successfully run to completion provide appropriate patterns of scour and deposition. Other trends in the results further verify the functionality of many of the sediment transport options in FST2DH.
|
Page generated in 0.0717 seconds