• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 151
  • 38
  • 21
  • 13
  • 9
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 452
  • 123
  • 60
  • 58
  • 57
  • 51
  • 49
  • 45
  • 42
  • 40
  • 39
  • 36
  • 35
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Metodología para la construccion de modelos espaciales de recuperación en flotación

Anabalón Müller, Matías Ignacio January 2014 (has links)
Memoria para optar al título de Ingeniero Civil de Minas / El presente trabajo trata de la estimación geoestadística, en el marco de la Geometalurgia, de variables de interés en el proceso de flotación de la mina Escondida en Chile. En particular busca generar un modelo de bloques espacial mediante el método de Kriging para las variables recuperación rougher , ley de cobre en el concentrado y ley de cobre en el relave . Los datos disponibles son ensayos de flotación georreferenciados que contienen información sobre: coordenadas espaciales , tamaño de soporte , ley de cobre de cabeza, concentrado y relave , ley de fierro de cabeza, concentrado y relave , recuperación de cobre y fierro , masas de alimentación de concentrado y relave y cobre oxidado . En primer lugar, para que el estimador funcione de forma adecuada, se definieron unidades de estimación en base al comportamiento metalúrgico de las variables, filtrando los datos por categorías, las cuales fueron entregadas en el modelo de bloque de Escondida. Esto resultó en seis poblaciones distintas que deben trabajarse de forma independiente dentro de sus volúmenes. Minerales de alto enriquecimiento con alteración cuarzo, sericita, arcilla Pórfido feldespático y cuarcífero de bajo enriquecimiento y primarios; con alteración cuarzo, sericita, arcilla Andesita de bajo enriquecimiento y primarios; con alteración cuarzo, sericita, arcilla Pórfido feldespático de bajo enriquecimiento y primarios; con alteración clorita, sericita, arcilla y alteración potásica Andesita de bajo enriquecimiento y primarios; con alteración clorita, sericita, arcilla y alteración potásica Minerales de alto enriquecimiento con alteración clorita, sericita, arcilla y alteración potásica Por otro lado, al ser las variables a estimar no aditivas hace que un posible kriging directo sea solo aplicable de forma puntual, es decir, sin cambio de soporte. Esto implicó la consideración de otras opciones de estimación mediante kriging de masas en el concentrado con el objetivo de calcular las variables de interés. El estudio resultó en que la estimación para las variables geometalúrgicas en base a las unidades definidas, tuvo mayor precisión en el caso del kriging directo a las variables. Esto pudo deberse a las operaciones posteriores de las estimaciones de las masas, que introducen sesgo. La estimación se mantuvo en la media local de los datos desagrupados según los gráficos de derivas, esto en especial para la variable recuperación, la cual tiene mayor precisión que las leyes estimadas en el concentrado y en el relave.
202

Reliability-based design optimization using surrogate model with assessment of confidence level

Zhao, Liang 01 July 2011 (has links)
The objective of this study is to develop an accurate surrogate modeling method for construction of the surrogate model to represent the performance measures of the compute-intensive simulation model in reliability-based design optimization (RBDO). In addition, an assessment method for the confidence level of the surrogate model and a conservative surrogate model to account the uncertainty of the prediction on the untested design domain when the number of samples are limited, are developed and integrated into the RBDO process to ensure the confidence of satisfying the probabilistic constraints at the optimal design. The effort involves: (1) developing a new surrogate modeling method that can outperform the existing surrogate modeling methods in terms of accuracy for reliability analysis in RBDO; (2) developing a sampling method that efficiently and effectively inserts samples into the design domain for accurate surrogate modeling; (3) generating a surrogate model to approximate the probabilistic constraint and the sensitivity of the probabilistic constraint with respect to the design variables in most-probable-point-based RBDO; (4) using the sampling method with the surrogate model to approximate the performance function in sampling-based RBDO; (5) generating a conservative surrogate model to conservatively approximate the performance function in sampling-based RBDO and assure the obtained optimum satisfy the probabilistic constraints. In applying RBDO to a large-scale complex engineering application, the surrogate model is commonly used to represent the compute-intensive simulation model of the performance function. However, the accuracy of the surrogate model is still challenging for highly nonlinear and large dimension applications. In this work, a new method, the Dynamic Kriging (DKG) method is proposed to construct the surrogate model accurately. In this DKG method, a generalized pattern search algorithm is used to find the accurate optimum for the correlation parameter, and the optimal mean structure is set using the basis functions that are selected by a genetic algorithm from the candidate basis functions based on a new accuracy criterion. Plus, a sequential sampling strategy based on the confidence interval of the surrogate model from the DKG method, is proposed. By combining the sampling method with the DKG method, the efficiency and accuracy can be rapidly achieved. Using the accurate surrogate model, the most-probable-point (MPP)-based RBDO and the sampling-based RBDO can be carried out. In applying the surrogate models to MPP-based RBDO and sampling-based RBDO, several efficiency strategies, which include: (1) using local window for surrogate modeling; (2) adaptive window size for different design candidates; (3) reusing samples in the local window; (4) using violated constraints for surrogate model accuracy check; (3) adaptive initial point for correlation parameter estimation, are proposed. To assure the accuracy of the surrogate model when the number of samples is limited, and to assure the obtained optimum design can satisfy the probabilistic constraints, a conservative surrogate model, using the weighted Kriging variance, is developed, and implemented for sampling-based RBDO.
203

Objective Bayesian analysis of Kriging models with anisotropic correlation kernel / Analyse bayésienne objective des modèles de krigeage avec noyau de corrélation anisotrope

Muré, Joseph 05 October 2018 (has links)
Les métamodèles statistiques sont régulièrement confrontés au manque de données qui engendre des difficultés à estimer les paramètres. Le paradigme bayésien fournit un moyen élégant de contourner le problème en décrivant la connaissance que nous avons des paramètres par une loi de probabilité a posteriori au lieu de la résumer par une estimation ponctuelle. Cependant, ce paradigme nécessite de définir une loi a priori adéquate, ce qui est un exercice difficile en l'absence de jugement d'expert. L'école bayésienne objective propose des priors par défaut dans ce genre de situation telle que le prior de référence de Berger-Bernardo. Un tel prior a été calculé par Berger, De Oliveira and Sansó [2001] pour le modèle de krigeage avec noyau de covariance isotrope. Une extension directe au cas des noyaux anisotropes poserait des problèmes théoriques aussi bien que pratiques car la théorie de Berger-Bernardo ne peut s'appliquer qu'à un jeu de paramètres ordonnés. Or dans ce cas de figure, tout ordre serait nécessairement arbitraire. Nous y substituons une solution bayésienne objective fondée sur les posteriors de référence conditionnels. Cette solution est rendue possible par une théorie du compromis entre lois conditionnelles incompatibles. Nous montrons en outre qu'elle est compatible avec le krigeage trans-gaussien. Elle est appliquée à un cas industriel avec des données non-stationnaires afin de calculer des Probabilités de Détection de défauts (POD de l'anglais Probability Of Detection) par tests non-destructifs dans les tubes de générateur de vapeur de centrales nucléaires. / A recurring problem in surrogate modelling is the scarcity of available data which hinders efforts to estimate model parameters. The Bayesian paradigm offers an elegant way to circumvent the problem by describing knowledge of the parameters by a posterior probability distribution instead of a pointwise estimate. However, it involves defining a prior distribution on the parameter. In the absence of expert opinion, finding an adequate prior can be a trying exercise. The Objective Bayesian school proposes default priors for such can be a trying exercise. The Objective Bayesian school proposes default priors for such situations, like the Berger-Bernardo reference prior. Such a prior was derived by Berger, De Oliveira and Sansó [2001] for the Kriging surrogate model with isotropic covariance kernel. Directly extending it to anisotropic kernels poses theoretical as well as practical problems because the reference prior framework requires ordering the parameters. Any ordering would in this case be arbitrary. Instead, we propose an Objective Bayesian solution for Kriging models with anisotropic covariance kernels based on conditional reference posterior distributions. This solution is made possible by a theory of compromise between incompatible conditional distributions. The work is then shown to be compatible with Trans-Gaussian Kriging. It is applied to an industrial case with nonstationary data in order to derive Probability Of defect Detection (POD) by non-destructive tests in steam generator tubes of nuclear power plants.
204

Potable Water Leakage Prediction and Detection using Geospatial Analysis

Tittle, Jacob 01 December 2019 (has links)
Due to increasing water treatment costs and conservation needs, traditional water loss analysis and acoustic leak detection methods are becoming heavily scrutinized by water utilities. This study explores water loss in Johnson City, Tennessee and how geospatial data analysis techniques improve water loss mitigation. This project uses sample water system pressure data and ordinary kriging spatial interpolation methods to identify leakage areas for further investigation. Analysis of existing geographic information system (GIS) water utility datasets with interpolated hydraulic grade values at sample water pressure points produce manageable survey areas that pinpoint areas with possible water leakage. Field detection methods, including ground-penetrating radar (GPR) and traditional acoustic methods, are employed to verify leakage predictions. Ten leakage areas are identified and verified using traditional acoustic detection methods, work order research, and GPR. The resulting data show that spatial analysis coupled with geospatial analysis of field pressure information improves water loss mitigation.
205

POTENTIALLY TOXIC ELEMENT CONTAMINATION IN MALAYSIAN CLOSED URBAN LANDFILLS:GEOCHEMICAL INDICES AND GEOSTATISTICAL ANALYSIS / マレーシアの閉鎖都市埋立処分場における有害元素汚染の可能性:地球化学的指標と地球統計学的解析

Azizi, Bin Abu Bakar 23 March 2020 (has links)
京都大学 / 0048 / 新制・論文博士 / 博士(工学) / 乙第13336号 / 論工博第4185号 / 新制||工||1740(附属図書館) / (主査)教授 米田 稔, 教授 清水 芳久, 教授 高岡 昌輝 / 学位規則第4条第2項該当 / Doctor of Philosophy (Engineering) / Kyoto University / DFAM
206

Kriging Methods to Exploit Spatial Correlations of EEG Signals for Fast and Accurate Seizure Detection in the IoMT

Olokodana, Ibrahim Latunde 08 1900 (has links)
Epileptic seizure presents a formidable threat to the life of its sufferers, leaving them unconscious within seconds of its onset. Having a mortality rate that is at least twice that of the general population, it is a true cause for concern which has gained ample attention from various research communities. About 800 million people in the world will have at least one seizure experience in their lifespan. Injuries sustained during a seizure crisis are one of the leading causes of death in epilepsy. These can be prevented by an early detection of seizure accompanied by a timely intervention mechanism. The research presented in this dissertation explores Kriging methods to exploit spatial correlations of electroencephalogram (EEG) Signals from the brain, for fast and accurate seizure detection in the Internet of Medical Things (IoMT) using edge computing paradigms, by modeling the brain as a three-dimensional spatial object, similar to a geographical panorama. This dissertation proposes basic, hierarchical and distributed Kriging models, with a deep neural network (DNN) wrapper in some instances. Experimental results from the models are highly promising for real-time seizure detection, with excellent performance in seizure detection latency and training time, as well as accuracy, sensitivity and specificity which compare well with other notable seizure detection research projects.
207

Modelo espacial de dureza minera Escondida

Smith Ortiz, Valentina de los Angeles January 2014 (has links)
Memoria para optar al título de Ingeniera Civil de Minas / El presente trabajo se enmarca en un convenio entre el laboratorio ALGES de la Universidad de Chile, en conjunto con la empresa BHP Billiton. Los datos utilizados corresponden a Minera Escondida Ltda., operada por BHP Billiton. El objetivo principal es la elaboración de un modelo, mediante cokriging, para el sector Escondida , en el que se caracterice el parámetro dureza , considerando las tres variables asociadas: SAG Power Index (SPI), Work Index de Bond (BWi) y Ensayo de Carga Puntual (PLT, medido por el índice Is50). Por una parte, se tiene el modelo de bloques, con información de atributos geológicos. Por otro lado, se tienen los datos de dureza. Existen dos sets de datos: uno corresponde a los índices SPI y BWi, tomados sobre un soporte de 16m; y el otro conjunto de datos corresponde a resultados de PLT, en soporte de 1,5m, y con una densidad de muestreo mayor en profundidad. Las unidades de estimación para Escondida se definen según las alteraciones, que son tres: Cuarzo-sericita-arcilla (1-QSC), Clorita-sericita-arcilla (2-SCC) y Potásica (3). Al estudiar la correlación de la variable PLT con las otras dos, los resultados son desfavorables, lo que se ve acentuado por la existencia de datos muy extremos y discontinuidades a pequeña escala, además de ser esperable dado que el ensayo PLT mide respuesta a la compresión, mientras que SPI y BWi miden impacto y abrasión. Se realiza entonces, un cokriging sólo con SPI y BWi, que presentan buena correlación entre sí. PLT se aplica sólo para definir dos dominios, según un valor umbral de 1,8; debido a que en la planta de proceso se ha determinado que esta distinción es importante. El cokriging se efectúa en base a los datos residuales, los que se calculan sustrayendo la media local, obtenida por kriging de tendencia, a los datos. Se aplica cokriging simple con media cero. Una vez estimados los residuos, se suma la media en cada nodo y se obtiene la estimación final. La validación del modelo obtenido se hace mediante comparación estadística, gráficos de deriva espacial, y visualizaciones 2D. Se ve que la diferencia entre la media de los bloques estimados y la media de los datos, en general es más baja para el dominio PLT<1,8 . La menor precisión de los resultados con respecto a los datos para PLT mayor , se ve también en los gráficos de deriva. Esto puede deberse a que los datos de PLT menores y mayores al umbral están bastante entremezclados, por lo que finalmente hay varios datos de PLT mayor que quedan dentro del dominio PLT menor . Por el contrario, la tendencia espacial de las variables estimadas es fiel a la de los datos para el dominio de menor PLT. No obstante, en todos los casos se ve que la tendencia a lo largo del eje Z logra ajustarse bastante bien. La principal conclusión, es que los modelos estimados permiten tener una clara noción de cómo varían en el espacio los índices de dureza SPI y BWi, en especial a través de Z. Sin embargo, los resultados son menos confiables en profundidad, dado que, en esta zona, reproducen fundamentalmente los modelos de tendencia. Por otra parte, se pierde información relativa a valores extremos, en especial para SPI, pues el cokriging a partir de residuos tiende a concentrar los resultados en torno a la media. La principal ventaja del trabajo realizado reside en la abundante cantidad de datos; sin embargo, esto se contrasta con poca información en lo que respecta a la caracterización geológica y la comprensión del proceso en la planta. / Laboratorio ALGES Universidad de Chile - BHP Billiton
208

Assessing palm decline in Florida by using advanced remote sensing with machine learning technologies and algorithms.

Hanni, Christopher B. 21 March 2019 (has links)
Native palms, such as the Sabal palmetto, play an important role in maintaining the ecological balance in Florida. As a side-effect of modern globalization, new phytopathogens like Texas Phoenix Palm Decline have been introduced into forest systems that threaten native palms. This presents new challenges for forestry managers and geographers. Advances in remote sensing has assisted the practice of forestry by providing spatial metrics regarding the type, quantity, location, and the state of heath for trees for many years. This study provides spatial details regarding the general palm decline in Florida by taking advantage of the new developments in deep learning constructs coupled with high resolution WorldView-2 multispectral/temporal satellite imagery and LiDAR point cloud data. A novel approach using TensorFlow deep learning classification, multiband spatial statistics and indices, data reduction, and step-wise refinement masking yielded a significant improvement over Random Forest classification in a comparison analysis. The results from the TensorFlow deep learning were then used to develop an Empirical Bayesian Kriging continuous raster as an informative map regarding palm decline zones using Normalized Difference Vegetation Index Change. The significance from this research showed a large portion of the study area exhibiting palm decline and provides a new methodology for deploying TensorFlow learning for multispectral satellite imagery.
209

Warping and sampling approaches to non-stationary gaussian process modelling. / Planification adaptative d'expériences et krigeage non stationnaire : application à la prise en compte des incertitudes dans les études mécaniques en sûreté nucléaire.

Marmin, Sebastien 12 December 2017 (has links)
Cette thèse traite de l'approximation de fonctions coûteuses à évaluer et présentant un comportement hétérogène selon les régions du domaine d'entrées. Dans beaucoup d’applications industrielles comme celles issues de la sûreté nucléaire et menées à l’IRSN, les codes de calcul de simulation physique ont des coûts numériques importants et leurs réponses sont alors approchées par un modèle. Les modèles par processus gaussien (PG) sont répandus pour construire des plans d'expériences au budget d'évaluations limité. Alors que les méthodes de planifications standard explorent le domaine en partant souvent d'une hypothèse de stationnarité et en utilisant des critères d'échantillonnages basés sur la variance, nous abordons sous deux aspects le problème d'adapter la planification d'expériences par PG aux fonctions à variations hétérogènes : d'une part sur la modélisation, en proposant une nouvelle famille de covariances (WaMI-GP) qui généralise deux noyaux existants (noyaux à indice multiple et noyaux à déformation tensorielle), et d'autre part sur la planification, en définissant et calculant de nouveaux critères d'échantillonnage à partir des dérivées du PG et dédiés à l'exploration de régions à grandes variations. Une analyse théorique de la nouvelle famille de PG ainsi que des expériences numériques montrent à la fois une certaine souplesse de modélisation et un nombre modéré de paramètres de modèle à estimer. Par ailleurs, un travail sur le couplage entre ondelettes et PG a conduit au développement d'un modèle non stationnaire, appelé ici wav-GP, qui utilise l'échelle locale pour approcher la dérivées de la déformation de manière itérative et non paramétrique. Les applications de wav-GP sur deux cas d'étude mécaniques fournissent des résultats prometteurs pour la prédiction de fonctions ayant un comportement hétérogène. D'autres part, nous formulons et calculons de nouveaux critères de variance qui reposent sur le champs de la norme du gradient du PG, et cela quelques soient les propriétés de (non) stationnarité du modèle. Les critères et les modèles sont comparés avec des méthodes de références sur des cas d'étude en ingénierie. Il en résulte que certains des critères par gradient proposés sont plus efficaces que les critères de variance plus conventionnels, mais qu'il est encore mieux de combiner le modèle WaMI-GP avec ces critères de variance. Ce modèle est souvent le plus compétitif dans des situations où les évaluations sont séquentielles et à nombre réduit. D'autres contributions s'inscrivant dans le thème de l'optimisation globale concernent en particulier le critère d'échantillonnage d'amélioration espérée (connu en anglais comme le critère d'expected improvement) et sa version multipoint pour l'évaluation en parallèle par paquet. Des formules analytiques et des approximations rapides sont établies pour une version généralisée du critère et pour son gradient. / This work deals with approximating expensive-to-evaluatefunctions exhibiting heterogeneous sensitivity to input perturbationsdepending on regions of the input space. Motivated by real test caseswith high computational costs coming mainly from IRSN nuclear safetystudies, we resort to surrogate models of the numerical simulatorsusing Gaussian processes (GP). GP models are popular for sequentialevaluation strategies in design of experiments under limited evaluationbudget. While it is common to make stationarity assumptions for theprocesses and use sampling criteria based on its variance forexploration, we tackle the problem of accommodating the GP-based designto the heterogeneous behaviour of the function from two angles: firstvia a novel class of covariances (WaMI-GP) that simultaneouslygeneralises existing kernels of Multiple Index and of tensorised warpedGP and second, by introducing derivative-based sampling criteriadedicated to the exploration of high variation regions. The novel GPclass is investigated both through mathematical analysis and numericalexperiments, and it is shown that it allows encoding muchexpressiveness while remaining with a moderate number of parameters tobe inferred. Moreover, exploiting methodological links between waveletsanalysis and non-stationary GP modelling, we propose a new non-stationary GP (Wav-GP) with non-parametric warping. The key point is aniterated estimation of the so-called local scale that approximates thederivative of the warping. Wav-GP is applied to two mechanical casestudies highlighting promising prediction performance. Independently ofnon-stationarity assumptions, we conduct derivations for new variance-based criteria relying on the norm of the GP gradient field. Criteriaand models are compared with state-of-the-art methods on engineeringtest cases. It is found on these applications that some of the proposedgradient-based criteria outperform usual variance-based criteria in thecase of a stationary GP model, but that it is even better to usevariance-based criteria with WaMI-GP, which dominates mostly for smalldesigns and in sequential set up. Other contributions in samplingcriteria address the problem of global optimisation, focusing on theexpected improvement criterion and its multipoint version for parallelbatch evaluations. Closed form formulas and fast approximations areestablished for a generalised version of the criterion and its gradient. Numerical experiments illustrate that the proposed approachesenable substantial computational savings.
210

Parallelisierung Ersatzmodell-gestützter Optimierungsverfahren

Schmidt, Hansjörg 12 February 2009 (has links)
Bei der Entwicklung neuer Produkte nehmen numerische Simulationen eine immer größere Rolle ein. Dadurch entsteht die Möglichkeit, relativ kostengünstig das neue Produkt zu testen, noch bevor ein teurer Prototyp angefertigt werden muss. Diese Möglichkeit weckt das Verlangen, Teile des Designprozesses zu automatisieren. Aber selbst mit den modernsten Algorithmen und Rechnern sind einige dieser Simulationen sehr zeitaufwändig, d.h. im Bereich von Minuten bis Stunden. Beispiele aus dem Automobilbereich dafür sind Kettentriebssimulationen, Strömungssimulationen oder Crashsimulationen. Mathematisch stehen dafür das Lösen von Differential-Algebraischen Gleichungen und partiellen Differentialgleichungen. Ziele des teilweise automatischen Designprozesses sind die Funktionsfähigkeit und möglichst optimale weitere Eigenschaften wie beispielsweise Leistung oder Kosten. In dieser Arbeit werden Optimierungsprobleme betrachtet, bei denen die Auswertung der Zielfunktion eine numerische Simulation erfordert. Um solche Probleme in annehmbarer Zeit lösen zu können, braucht man also Optimierungsverfahren, die mit wenigen Funktionsauswertungen schon gute Näherungen des globalen Optimums finden können. In dieser Arbeit werden Ersatzmodell-gestützte Optimierungsverfahren, die eine Kriging-Approximation benutzen, betrachtet. Diese Verfahren besitzen die oben genannten Anforderungen, sind aber nur eingeschränkt parallelisierbar. Die Arbeit gliedert sich wie folgt. Die für diese Arbeit benötigten Grundlagen der Optimierung werden im zweiten Kapitel vorgestellt. Das dritte Kapitel beschäftigt sich mit der Theorie der Kriging- Approximation. Die Verwendung eines Ersatzmodells zur Optimierung und die Parallelisierung der entstehenden Verfahren sind das Thema des vierten Kapitels. Im fünften Kapitel werden die vorgestellten Verfahren numerisch verifiziert und es werden Vorschläge für die Anwendung gegeben. Das sechste Kapitel gibt einen Überblick über die Kettentriebskonstruktion und die Verwendung der vorgestellten Algorithmen. Das letzte Kapitel fasst die erreichten Ziele zusammen und gibt Vorschläge für weitere Verbesserungen und Forschungsthemen.

Page generated in 0.0603 seconds