• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 3
  • 3
  • 2
  • 1
  • Tagged with
  • 69
  • 69
  • 24
  • 20
  • 19
  • 17
  • 15
  • 12
  • 12
  • 11
  • 9
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Towards real-time simulation of interactions among solids andfluids

Chen, Zhili January 2015 (has links)
No description available.
42

Multi-Resolution Statistical Modeling in Space and Time With Application to Remote Sensing of the Environment

Johannesson, Gardar 12 May 2003 (has links)
No description available.
43

Modeling for Control Design of an Axisymmetric Scramjet Engine Isolator

Zinnecker, Alicia M. 18 December 2012 (has links)
No description available.
44

An Expert-based Approach for Grid Peak Demand Curtailment using HVAC Thermostat Setpoint Interventions in Commercial Buildings

Ramdaspalli, Sneha Raj 01 July 2021 (has links)
This dissertation explores the idea of inducing grid peak demand curtailment by turning commercial buildings into interactive assets for building owners during the demand control period. The work presented here is useful for both ab initio design of new sites and for existing or retrofitted sites. An analytical hierarchy process (AHP)-based framework is developed to curtail the thermal load effectively across a group of commercial buildings. It gives an insight into the amount of peak demand reduction possible for each building, subject to indoor thermal comfort constraints as per ASHRAE standards. Furthermore, the detailed operation of buildings in communion with the electric grid is illustrated through case studies. This analysis forms an outline for the assessment of transactive energy opportunities for commercial buildings in distribution system operations and lays the foundation for a seamless building-to-grid integration framework. The contribution of this dissertation is fourfold – (a) an efficient method of developing high-fidelity physics-based building energy models for understanding the realistic operation of commercial buildings, (b) identification of minimal dataset to achieve a target accuracy for the building energy models (c) quantification of building peak demand reduction potential and corresponding energy savings across a stipulated range of thermostat setpoint temperatures and (d) AHP-based demand curtailment scheme. By careful modeling, it is shown that commercial building models developed using this methodology are both accurate and robust. As a result, the proposed approach can be extended to other commercial buildings of diverse characteristics, independent of the location. The methodology presented here takes a holistic approach towards building energy modeling by accounting for several building parameters and interactions between them. In addition, parametric analysis is done to identify a useful minimal dataset required to achieve a specified accuracy for the building energy models. This thesis describes the concept of commercial buildings as interactive assets in a transactive grid environment and the idea behind its working. / Doctor of Philosophy / This dissertation titled "An Expert-based Approach for Grid Peak Demand Curtailment using HVAC Thermostat Setpoint Interventions in Commercial Buildings" tackles two important challenges in the energy management domain: –electric grid peak demand curtailment and energy savings in commercial buildings. The distinguishing feature of the proposed solution lies in addressing these challenges solely through demand-side management (DSM) strategies, which include HVAC thermostat setpoint interventions and lighting control. We present a methodology for developing highly accurate building energy models that serve as digital twins of actual buildings. These digital replicas can be used to quantify the impact of various interventions and reflect the realistic operation of commercial buildings across varied conditions. This enables building owners to control demand intelligently and transact energy effectively in the electricity market. The development of Internet of Things (IoT) market and advanced technologies such as smart meters and smart thermostats allows for the design of novel strategies that address traditional challenges faced by electric grid operators. This dissertation elaborates on how smart buildings can leverage IoT-based solutions to participate in the electricity market during demand control periods. We also developed an expert opinion-based demand curtailment allocation scheme resulting in grid peak demand reduction. The numerical results obtained reinforce the effectiveness of the proposed solution across varied climatic conditions.
45

Analyse physics-based de scénarios sismiques «de la faille au site» : prédiction de mouvement sismique fort pour l’étude de vulnérabilité sismique de structures critiques. / Forward physics-based analysis of "source-to-site" seismic scenarios for strong ground motion prediction and seismic vulnerability assessment of critical structures

Gatti, Filippo 25 September 2017 (has links)
L’ambition de ce travail est la prédiction du champ d’onde incident réalistique, induit par des mouvement forts de sol, aux sites d’importance stratégique, comme des centrales nucléaires. À cette fin, un plateforme multi-outil est développé et exploité pour simuler les aspects différents d’un phénomène complexe et multi-échelle comme un tremblement de terre. Ce cadre computationnel fait face à la nature diversifiée d’un tremblement de terre par approche holistique local-régionale.Un cas d’étude complexe est choisie: le tremblement de terre MW6.6 Niigata-Ken Ch¯uetsu-Oki, qui a endommagé la centrale nucléaire de Kashiwazaki-Kariwa. Les effets de site non-linéaires observés sont à premier examinés et caractérisés. Dans la suite, le modèle 3D «de la faille au site» est construit et employé pour prédire le mouvement sismique dans une bande de fréquence de 0-7 Hz. L’effet de la structure géologique pliée au-dessous du site est quantifié en simulant deux chocs d’intensité modérée et en évaluant la variabilité spatiale des spectres de réponse aux différents endroits dans le site nucléaire. Le résultat numérique souligne le besoin d’une description plus détaillée du champ d’onde incident utilisé comme paramètre d’entrée dans la conception structurel antisismique de réacteurs nucléaires et des installations. Finalement, la bande de fréquences des signaux synthétiques obtenues comme résultat des simulations numériques est agrandie en exploitant la prédiction stochastique des ordonnées spectrales à courte période fournies par des Réseaux Artificiels de Neurones. / The ambition of this work is the prediction of a synthetic yet realistic broad-band incident wave-field, induced by strong ground motion earthquakes at sites of strategic importance, such as nuclear power plants. To this end, an multi-tool platform is developed and exploited to simulate the different aspects of the complex and multi-scale phenomenon an earthquake embodies. This multi-scale computational framework copes with the manifold nature of an earthquake by a holistic local-to-regional approach. A complex case study is chosen to this end: is the MW6.6 Niigata-Ken Ch¯uetsu-Oki earthquake, which damaged the Kashiwazaki-Kariwa nuclear power plant. The observed non-linear site-effects are at first investigated and characterized. In the following, the 3D source-to-site model is constructed and employed to provide reliable input ground motion, for a frequency band of 0-7 Hz. The effect of the folded geological structure underneath the site is quantified by simulating two aftershocks of moderate intensity and by estimating the spatial variability of the response spectra at different locations within the nuclear site. The numerical outcome stresses the need for a more detailed description of the incident wave-field used as input parameter in the antiseismic structural design of nuclear reactors and facilities. Finally, the frequency band of the time-histories obtained as outcome of the numerical simulations is enlarged by exploiting the stochastic prediction of short-period response ordinates provided by Artificial Neural Networks.
46

An investigation into the prognosis of electromagnetic relays

Wileman, Andrew John January 2016 (has links)
Electrical contacts provide a well-proven solution to switching various loads in a wide variety of applications, such as power distribution, control applications, automotive and telecommunications. However, electrical contacts are known for limited reliability due to degradation effects upon the switching contacts due to arcing and fretting. Essentially, the life of the device may be determined by the limited life of the contacts. Failure to trip, spurious tripping and contact welding can, in critical applications such as control systems for avionics and nuclear power application, cause significant costs due to downtime, as well as safety implications. Prognostics provides a way to assess the remaining useful life (RUL) of a component based on its current state of health and its anticipated future usage and operating conditions. In this thesis, the effects of contact wear on a set of electromagnetic relays used in an avionic power controller is examined, and how contact resistance combined with a prognostic approach, can be used to ascertain the RUL of the device. Two methodologies are presented, firstly a Physics based Model (PbM) of the degradation using the predicted material loss due to arc damage. Secondly a computationally efficient technique using posterior degradation data to form a state space model in real time via a Sliding Window Recursive Least Squares (SWRLS) algorithm. Health monitoring using the presented techniques can provide knowledge of impending failure in high reliability applications where the risks associated with loss-of-functionality are too high to endure. The future states of the systems has been estimated based on a Particle and Kalman-filter projection of the models via a Bayesian framework. Performance of the prognostication health management algorithm during the contacts life has been quantified using performance evaluation metrics. Model predictions have been correlated with experimental data. Prognostic metrics including Prognostic Horizon (PH), alpha-Lamda (α-λ), and Relative Accuracy have been used to assess the performance of the damage proxies and a comparison of the two models made.
47

Computer Based Interactive Medical Simulation 

Cotin, Stéphane 11 July 2008 (has links) (PDF)
La simulation médicale interactive sur ordinateur est une technologie révolutionnaire pour améliorer l'efficacité de nombreuses interventions médicales tout en réduisant le niveau de risque pour les patients. Bien que visant essentiellement l'apprentissage, ces simulations pourraient être utilisées, dans un futur proche, pour la planification d'interventions complexes ou même pour assister le praticien / clinicien dans la salle d'opération. Ce manuscrit présente une revue détaillée du domaine multi-disciplinaire de la simulation médicale, et illustre nos différentes contributions dans ce domaine. Après une vue d'ensemble, au Chapitre I, de nombreuses applications en simulation médicale, le Chapitre II décrit nos contributions sur les modèles, depuis la modélisation anatomique (afin de créer des représentations réalistes, et potentiellement adaptées au patient, de l'anatomie humaine) jusqu'à la modélisation biomécanique (pour déterminer les caractéristiques des tissus mous et définir des modèles mathématiques décrivant leur comportement). Les problématiques liées à la modélisation de matériel médical (instruments flexibles ou systèmes d'imagerie) ou encore la modélisation physiologique (pour le calcul d'écoulement sanguin par exemple) sont également abordées. Le Chapitre III s'attache à la modélisation des interactions entre instruments et tissus mous, qui occupent une part très importante dans toute intervention médicale. Les différentes techniques à mettre en oeuvre pour modéliser de telles interactions (détection de collision, modélisation des contacts et rendu haptique) sont décrites dans ce chapitre. Au Chapitre IV sont présentées plusieurs contributions liées à la validation, que ce soit pour comparer des modèles déformables ou pour l'évaluation de systèmes d'apprentissage. Le Chapitre V est dédié à la description de divers prototypes de simulateurs développés au cours de ces travaux de recherche, et le Chapitre VI présente nos récents travaux visant au développement d'une plate-forme Open Source dédiée à la simulation médicale. Cette plate-forme, appelée SOFA, est le fruit d'un travail collaboratif international à travers lequel nous espérons fédérer de nombreuses équipes de recherche. Finalement, le Chapitre VII résume nos différentes contributions et présente un ensemble de perspectives et de défis, en particulier dans les domaine de la simulation et de la planification sur des données spécifiques à des patients.
48

Algorithmes et structures de données parallèles pour applications interactives / Parallel algorithms and data structures for interactive data problems

Toss, Julio 26 October 2017 (has links)
La quête de performance a été une constante à travers l'histoire des systèmes informatiques.Il y a plus d'une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d'épuisement pour satisfaire les exigences de performance.Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes.Avec l'adoption généralisée d'ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s'adapter à ces nouvelles architectures.Cependant, dans des applications non conventionnelles, avec des exigences d'interactivité et de temps réel, la parallélisation efficace est encore un défi majeur.L'exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l'entrée de l'utilisateur dans une itération de calcul de la boucle de simulation.Le même type de contrainte apparaît dans les applications d'analyse de données en continu.Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d'analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé.La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache.Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l'indexation statique des données ne conduisent pas aux performances souhaitées.Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes: la première dans le domaine de la simulation physique interactive et la seconde sur l'analyse des données en continu.Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille.Pour le problème d'analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire. / The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements.Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge.Real-time performance requirement shows-up, for instance, in user-interactive simulations where the system must be able to react to the user's input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an on-line analysis system. The consumer system has to keep a controlled memory budget and delivery fast processed information about the stream.Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization.In this thesis we address data-dependent problems on two different application: one in physics-based simulation and other on streaming data analysis. To the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. To the streaming data analysis problem we present a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
49

The Light Curve Simulation and Its Inversion Problem for Human-Made Space Objects

Siwei Fan (9193685) 03 August 2020 (has links)
Shape and attitude of near-Earth objects directly affect the orbit propagation via drag and solar radiation pressure. Obtaining information beyond the object states (position and velocity) is integral to identifying an object. It also enables tracing origin and can improve the orbit accuracy. For objects that have a significant distance to the observer, only non-resolved imaging is available, which does not show any details of the object. So-called non-resolved light curve measurements, i.e. photometric measurements over time can be used to determined the shape of space objects using a two step inversion scheme. It follows the procedure to first determine the Extended Gaussian Image and then going through the shape reconstruction process to retrieve the closed shape even while measurement noise is present. Furthermore, it is also possible to generate high confidence candidates when follow-up observations are provided through a multi-hypotheses process.
50

Diagnosis of Evaporative Emissions Control System Using Physics-based and Machine Learning Methods

Yang, Ruochen 24 September 2020 (has links)
No description available.

Page generated in 0.029 seconds