• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1291
  • 376
  • 212
  • 163
  • 71
  • 63
  • 36
  • 33
  • 28
  • 28
  • 26
  • 14
  • 12
  • 10
  • 10
  • Tagged with
  • 2855
  • 398
  • 284
  • 280
  • 207
  • 195
  • 190
  • 163
  • 157
  • 156
  • 156
  • 152
  • 147
  • 142
  • 128
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
821

Efficient Sampling Plans for Control Charts When Monitoring an Autocorrelated Process

Zhong, Xin 15 March 2006 (has links)
This dissertation investigates the effects of autocorrelation on the performances of various sampling plans for control charts in detecting special causes that may produce sustained or transient shifts in the process mean and/or variance. Observations from the process are modeled as a first-order autoregressive process plus a random error. Combinations of two Shewhart control charts and combinations of two exponentially weighted moving average (EWMA) control charts based on both the original observations and on the process residuals are considered. Three types of sampling plans are investigated: samples of n = 1, samples of n > 1 observations taken together at one sampling point, or samples of n > 1 observations taken at different times. In comparing these sampling plans it is assumed that the sampling rate in terms of the number of observations per unit time is fixed, so taking samples of n = 1 allows more frequent plotting. The best overall performance of sampling plans for control charts in detecting both sustained and transient shifts in the process is obtained by taking samples of n = 1 and using an EWMA chart combination with a observations chart for mean and a residuals chart for variance. The Shewhart chart combination with the best overall performance, though inferior to the EWMA chart combination, is based on samples of n > 1 taken at different times and with a observations chart for mean and a residuals chart for variance. / Ph. D.
822

Simulation Based Methods for Credit Risk Management in Payment Service Provider Portfolios / Simuleringsbaserade metoder för kreditriskhantering i betaltjänstleverantörsportföljer

Dahlström, Knut, Forssbeck, Carl January 2023 (has links)
Payment service providers have unique credit portfolios with different characteristics than many other credit providers. It is therefore important to study if common credit risk estimation methods are applicable to their setting. By comparing simulation based methods for credit risk estimation it was found that combining Monte Carlo simulation with importance sampling and the asymptotic single risk factor model is the most suitable model amongst those analyzed. It allows for a combination of variance reduction, scenario analysis and correlation checks, which all are important for estimating credit risk in a payment service provider portfolio. / Betaltjänstleverantörer har unika kreditportföljer med andra egenskaper än många andra kreditgivare. Det är därför viktigt att undersöka om vanliga metoder för uppskattning av kreditrisk går att tillämpa på betaltjänstleverantörer. Genom att jämföra olika simulationsbaserade metoder för uppskattning av kreditrisk fann man att att kombinationen av Monte Carlo-simulering med Importance Sampling och en ASRF-modell är den mest lämpliga bland de analyserade metoderna. Det möjliggör en kombination av variansminskning, scenarioanalys och korrelationskontroller som alla är viktiga för att uppskatta kreditrisk i en betaltjänstleverantörsportfölj.
823

A BIOLOGICAL MONITORING INTERNSHIP WITH THE OHIO ENVIRONMENTAL PROTECTION AGENCY, DIVISION OF SURFACE WATER

Longsmith, Rebecca Johnson 11 January 2016 (has links)
No description available.
824

Topics in Harmonic Analysis on Combinatorial Graphs

Gidelew, Getnet Abebe January 2014 (has links)
In recent years harmonic analysis on combinatorial graphs has attracted considerable attention. The interest is stimulated in part by multiple existing and potential applications of analysis on graphs to information theory, signal analysis, image processing, computer sciences, learning theory, and astronomy. My thesis is devoted to sampling, interpolation, approximation, and multi-resolution on graphs. The results in the existing literature concern mainly with these theories on unweighted graphs. My main objective is to extend existing theories and obtain new results about sampling, interpolation, approximation, and multi-resolution on general combinatorial graphs such as directed, undirected and weighted. / Mathematics
825

Evaluation of a Particle Sampling Probe to Measure Mass Concentration in Particle-Laden Flows

Coulon, Thomas Alexander 11 May 2022 (has links)
Particle ingestion is a prevalent issue for jet engines. During operation, sand and ash particles enter the engine and can cause serious problems, including erosion and buildup of Calcia-Magnesia-Alumina-Silicate (CMAS) deposits. Analyzing the particle mass concentration of the airflow can help better understand this issue. This can best be accomplished by sampling particles with a sampling probe at various locations within an engine. The present study is a continuation of a previous study that developed and evaluated a novel sampling probe. The present study seeks to modify the probe to optimize its sampling capability, to evaluate the aerodynamics of the modified probe through Particle Imaging Velocimetry (PIV), to gain insight on its ability to sample smaller particles, to characterize the movement of larger particles as they are sampled using Particle Tracking Velocimetry (PTV), and to develop a method to physically measure particle mass concentration. To accomplish this, a free jet rig was used to create a particle-laden flow, and the probe was placed at the jet exit to sample particles. A laser and camera system were used to capture images of the probe for PIV and PTV. A particle collection apparatus was designed to collect and weigh particles captured by the probe to measure mass concentration. The PIV results indicate that the probe exhibits sub-isokinetic sampling behavior. However, the PTV results show that large particles are not affected by non-isokinetic conditions. The mass concentration measured by the probe decreases when the flow Mach number increases due to the higher flow velocity causing particles to be spaced further apart. The mass concentration measured by the probe decreases when the probe yaw angle increases due to lower projected probe inlet area. / Master of Science / Sand and ash particles are harmful to jet engines. Particle ingestion can greatly affect the useful life of the engine. Particles erode the machinery within the engine, and they also melt to form mineral deposits, all of which degrades performance. One method that is being developed to better understand this problem is to sample particles at various locations in the engine using a sampling probe. The concept of a sampling probe is simple: particles are captured by the probe inside the engine, and the particles are collected outside the engine for analysis. This would give insight on particle behavior in the engine. The present study is a continuation of a previous study that developed and evaluated a novel sampling probe. The present study seeks to modify the probe to optimize its sampling capability, to use advanced imaging techniques to characterize the movement of air and particles entering the probe, and to safely collect and weigh particles captured by the probe. A compressed air jet was used to accelerate particles and create a particle-laden environment akin to the inside of an engine. The probe was placed at the exit of the jet to sample particles. A laser and camera system were used to capture images of the probe during the particle-sampling process. A particle collection apparatus was designed to safely collect and store particles captured by the probe for weighing. The image and weight data were then used to make conclusions about the probe's sampling capability.
826

A Comparison of Observation Systems for Monitoring Engagement in an Intervention Program

Linden, April D. 05 1900 (has links)
The measurement of engagement, or the interaction of a person with their environment, is an integral part of assessing the quality of an intervention program for young children diagnosed with autism spectrum disorder. Researchers and practitioners can and do measure engagement in many ways on the individual and group level. The purpose of this methodological study was to compare three commonly used recording systems: individual partial interval, group momentary time sampling, and group partial interval. These recording methods were compared across three classes of engagement: social, instructional, and non-instructional in a clinical setting with children with autism. Results indicate that group measurement systems were not sensitive to individual changes in engagement when child behaviors were variable. The results are discussed in the context of behavior analytic conceptual systems and the relative utility and future research directions for behavior analytic practice and research with young children in group settings.
827

Processor design-space exploration through fast simulation / Exploration de l'espace de conception de processeurs via simulation accélérée

Khan, Taj Muhammad 12 May 2011 (has links)
Nous nous focalisons sur l'échantillonnage comme une technique de simulation pour réduire le temps de simulation. L'échantillonnage est basé sur le fait que l'exécution d'un programme est composée des parties du code qui se répètent, les phases. D'où vient l'observation que l'on peut éviter la simulation entière d'un programme et simuler chaque phase juste une fois et à partir de leurs performances calculer la performance du programme entier. Deux questions importantes se lèvent: quelles parties du programme doit-on simuler? Et comment restaurer l'état du système avant chaque simulation? Pour répondre à la première question, il existe deux solutions: une qui analyse l'exécution du programme en termes de phases et choisit de simuler chaque phase une fois, l'échantillonnage représentatif, et une deuxième qui prône de choisir les échantillons aléatoirement, l'échantillonnage statistique. Pour répondre à la deuxième question de la restauration de l'état du système, des techniques ont été développées récemment qui restaurent l'état (chauffent) du système en fonction des besoins du bout du code simulé (adaptativement). Les techniques des choix des échantillons ignorent complètement les mécanismes de chauffage du système ou proposent des alternatives qui demandent beaucoup de modification du simulateur et les techniques adaptatives du chauffage ne sont pas compatibles avec la plupart des techniques d'échantillonnage. Au sein de cette thèse nous nous focalisons sur le fait de réconcilier les techniques d'échantillonnage avec celles du chauffage adaptatif pour développer un mécanisme qui soit à la fois facile à utiliser, précis dans ses résultats, et soit transparent à l'utilisateur. Nous avons prit l'échantillonnage représentatif et statistique et modifié les techniques adaptatives du chauffage pour les rendre compatibles avec ces premiers dans un seul mécanisme. Nous avons pu montrer que les techniques adaptatives du chauffage peuvent être employées dans l'échantillonnage. Nos résultats sont comparables avec l'état de l'art en terme de précision mais en débarrassant l'utilisateur des problèmes du chauffage et en lui cachant les détails de la simulation, nous rendons le processus plus facile. On a aussi constaté que l'échantillonnage statistique donne des résultats meilleurs que l'échantillonnage représentatif / Simulation is a vital tool used by architects to develop new architectures. However, because of the complexity of modern architectures and the length of recent benchmarks, detailed simulation of programs can take extremely long times. This impedes the exploration of processor design space which the architects need to do to find the optimal configuration of processor parameters. Sampling is one technique which reduces the simulation time without adversely affecting the accuracy of the results. Yet, most sampling techniques either ignore the warm-up issue or require significant development effort on the part of the user.In this thesis we tackle the problem of reconciling state-of-the-art warm-up techniques and the latest sampling mechanisms with the triple objective of keeping the user effort minimum, achieving good accuracy and being agnostic to software and hardware changes. We show that both the representative and statistical sampling techniques can be adapted to use warm-up mechanisms which can accommodate the underlying architecture's warm-up requirements on-the-fly. We present the experimental results which show an accuracy and speed comparable to latest research. Also, we leverage statistical calculations to provide an estimate of the robustness of the final results.
828

Approaches for the optimisation of double sampling for stratification in repeated forest inventories

von Lüpke, Nikolas 26 March 2013 (has links)
Die zweiphasige Stichprobe zur Stratifizierung ist ein effizientes Inventurverfahren, das seine Praxistauglichkeit in verschiedenen Waldinventuren unter Beweis stellen konnte. Dennoch sind weitere Effizienzsteigerungen wünschenswert. In der vorliegenden Arbeit werden verschiedene Ansätze die Effektivität dieses Verfahrens zu steigern separat vorgestellt, in Fallstudien mit Daten der Niedersächsischen Betriebsinventur getestet und diskutiert. Der erste Ansatz (Kapitel 2) beschäftigt sich mit der Anwendung der zweiphasigen Stichprobe zur Stratifizierung in Wiederholungsinventuren. In einem Zusammengesetzten Schätzer werden Daten eines aktuellen mit Simulationsergebnissen des vorhergehenden Inventurdurchgangs kombiniert. Dabei kann der Stichprobenumfang der aktuellen Inventur verringert werden, während die Daten aller Inventurpunkte des vorherigen Durchgangs für Simulationen genutzt werden. Zwar kann ein solcher Schätzer konstruiert werden, jedoch lässt die Fallstudie darauf schließen, dass keine, oder zumindest keine ausreichende, Effizienzsteigerung erzielt werden kann. Erklärt werden kann dies durch die großen Unterschiede zwischen den aktuellen Inventurergebnissen aus den reduzierten Inventuren und den prognostizierten Volumina aus den Simulationen. Eine Erhöhung der Effizienz dieses Verfahrens könnte nur durch Weiterentwicklungen der Waldwachstumsmodelle möglich werden. In Wiederholungsinventuren kann jedoch eine höhere Effizienzsteigerung mit einem dreiphasigen Verfahren erreicht werden, das die zweiphasige Stichprobe mit der zwei\-phasigen Regressionsstichprobe kombiniert (Kapitel 3). Mittelwert- und Varianzschätzer, die auf dem sogenannten infinite population approach in der ersten Phase beruhen, werden präsentiert. Genutzt werden dabei die Korrelationen zwischen den aktuellen Inventurergebnissen und den Wachstumssimulationen auf der Basis des vorherigen Inventurdurchgangs. Statt der Simulationsergebnisse können auch einfach die Ergebnisse des vorherigen Inventurdurchgangs zur Berechnung der Korrelationen genutzt werden. Allerdings führt die Nutzung der Simulationsergebnisse als Regressor in den meisten Fällen zu besseren Ergebnissen. Bei verringertem Stichprobenumfang der Folgeinventur und damit einhergehendem Präzisionsverlust, ist die Effizienz des dreiphasigen Verfahrens höher als die des klassischen zweiphasigen Verfahrens. Die Nutzung der Vorinventur in Form eines stratenweisen Regressionsschätzers hat sich damit als erfolgreich und gegenüber dem zusammengesetzten Schätzer als deutlich überlegen gezeigt. Als weiterer Ansatz wird die Erweiterung der zweisphasigen Stichprobe zur Stratifizierung um eine geclusterte Unterstichprobe zu einem dreiphasigen Design vorgestellt (Kapitel 4). Sowohl für den Ratio-to-Size- als auch für den unverzerrten Ansatz werden entsprechende Mittelwert- und Varianzschätzer präsentiert. Verglichen mit dem zweiphasigen Verfahren, führt dieses dreiphasige Design in der Fallstudie zu keiner Effizienzsteigerung. Gründe hierfür können in der vergleichsweise kleinen Größe der Forstämter und der hohen Stichprobendichte der Niedersächsischen Betriebsinventur gesehen werden. Sinnvolle Anwendungen dieses Verfahrens sind aber möglicherweise unter anderen Erschließungsbedingungen in Großgebieten denkbar. In einer weiteren Fallstudie wird versucht existierende Probepunkte in Clustern von homogener Größe zusammenzufassen (Kapitel 5). Eine solche Zusammenfassung soll der Optimierung der Wegzeiten bei der Aufnahme von Inventurpunkten dienen. Dazu werden sieben verschiedene Methoden getestet und deren Ergebnisse miteinander verglichen. Durch einen Vergleich mit optimierten Richtwert-Lösungen wird zudem die Qualität dieser Lösungen evaluiert. Es zeigt sich, dass drei Algorithmen des Vehicle Routing Problems gut dazu geeignet sind, Cluster von homogener Größe zu erstellen. Nicht empfohlen werden kann dagegen die Verwendung von drei anderen Cluster-Algorithmen, sowie die Nutzung von Bewirtschaftungseinheiten als Cluster, da diese Methoden zu Clustern von sehr heterogener Größe führen.
829

Baigtinės populiacijos parametrų įvertinių tikslumo tyrimas modeliuojant / The Investigation of Parameter Accuracy of the Finite Population Estimators by Modelling

Butkuvienė, Rita 17 June 2013 (has links)
Baigiamajame magistro darbe nagrinėjamas nuoseklusis ėmimas, priklausantis pozicinių imties planų su fiksuota rikiuojančio skirstinio forma klasei. Šio imties plano atveju gautos imties plano ir populiacijos elementų priklausymo imčiai tikimybių analizinės išraiškos. Remiantis entropija, nuoseklusis ėmimas yra lyginamas su tai pačiai klasei priklausančiais Pareto ir nuosekliuoju Puasono ėmimu. Nagrinėjamas ir dviejų fazių imties planas sluoksniavimui, taikant pirmosios fazės nuoseklųjį ėmimą. Baigtinėje populiacijoje apibrėžto tyrimo kintamojo reikšmių suma vertinama kvazi Horvico ir Tompsono įvertiniu. Modeliuojant tiriama, ar sumažėja įvertinio dispersija dėl antrosios fazės sluoksniavimo. Šiame tyrime naudojami Lietuvos gyventojų užimtumo statistinio tyrimo duomenys, vertinamas užimtųjų ir bedarbių skaičius, nedarbo lygis. / The successive sampling design, belonging to the class of order sampling designs with fixed order distribution shape, is studied. Analytical expressions for design probability and element inclusion probability are obtained. Entropy is used to compare successive, Pareto and sequential Poisson sampling designs, belonging to the same class. Two-phase sampling design for stratification with the first-phase order sampling is also studied. The total of the study variable values, defined on a finite population, is estimated by a quasi-Horwitz-Thompson estimator. The behaviour of the variance estimator influenced by the second phase stratification is investigated by simulation. The study is carried out for estimates of the number of employed, unemployed and the unemployment rate using the Lithuanian Labor Force Survey data.
830

Estimation simplifiée de la variance pour des plans complexes

Lefebvre, Isabelle 12 1900 (has links)
En présence de plans de sondage complexes, les méthodes classiques d’estimation de la variance présentent certains défis. En effet, les estimateurs de variance usuels requièrent les probabilités d’inclusion d’ordre deux qui peuvent être complexes à obtenir pour certains plans de sondage. De plus, pour des raisons de confidentialité, les fichiers externes de microdonnées n’incluent généralement pas les probabilités d’inclusion d’ordre deux (souvent sous la forme de poids bootstrap). En s’inspirant d’une approche développée par Ohlsson (1998) dans le contexte de l’échantillonnage de Poisson séquentiel, nous proposons un estimateur ne requérant que les probabilités d’inclusion d’ordre un. L’idée est d’approximer la stratégie utilisée par l’enquête (consistant du choix d’un plan de sondage et d’un estimateur) par une stratégie équivalente dont le plan de sondage est le plan de Poisson. Nous discuterons des plans proportionnels à la taille avec ou sans grappes. Les résultats d’une étude par simulation seront présentés. / In a complex design framework, standard variance estimation methods entail substantial challenges. As we know, conventional variance estimators involve second order inclusion probabilities, which can be difficult to compute for some sampling designs. Also, confidentiality standards generally prevent second order inclusion probabilities to be included in external microdata files (often in the form of bootstrap weights). Based on Ohlsson’s sequential Poisson sampling method (1998), we suggest a simplified estimator for which we only need first order inclusion probabilities. The idea is to approximate a survey strategy (which consists of a sampling design and an estimator) by an equivalent strategy for which a Poisson sampling design is used. We will discuss proportional to size sampling and proportional to size cluster sampling. Results of a simulation study will be presented.

Page generated in 0.0318 seconds