• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 151
  • 149
  • 38
  • 21
  • 13
  • 9
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 450
  • 123
  • 59
  • 58
  • 57
  • 51
  • 49
  • 45
  • 41
  • 40
  • 39
  • 36
  • 35
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Contribution à la construction de méta-modèles pour l’optimisation sous contraintes de critères énergétiques : application à la conception des bâtiments / Contribution to the use of surrogate models for constrained optimization of energy criteria : application to building design

Gengembre, Édouard 14 December 2011 (has links)
La recherche de la performance énergétique dans les bâtiments est devenue un objectif sociétal et réglementaire. De nos jours, un bâtiment doit assurer des conditions de confort, tout en limitant son impact énergétique et environnemental. Les demandes de performances sont telles qu’il n’est plus possible d’appliquer des solutions standards à l’ensemble du bâtiment. Un critère énergétique doit donc être pris en compte au plus tôt dans la conception, ce qui exige dès l’esquisse un travail de plus en plus lourd et complexe. Pour faciliter la prise en compte du critère énergétique, nous avons choisi une approche d’optimisation valorisant la mise en œuvre de la simulation énergétique du bâtiment (quelque soit la méthode de simulation choisie) afin de fournir un outil d’aide à la décision au concepteur à partir du métré et de l’esquisse. La thèse consiste au développement d’une méthodologie commençant par le développement d’un algorithme d’optimisation valorisant la construction séquentielle d’un Kriging sur des paramètres globaux du bâtiment qui permet de rendre le temps de calcul nécessaire compatible avec le contexte de conception d’un bâtiment. Le méta-modèle de Kriging construit peut ensuite être valorisé pour restituer les solutions optimales, permettre l’exploration de l’espace de solutions respectant les contraintes, et mettre en valeur la sensibilité énergétique du bâtiment face aux différents paramètres d’entrée. Le concepteur peut alors faire des choix constructifs optimisés, tout en conservant un certain espace de liberté, ou encore réaliser des modifications à postériori. La dernière étape consiste à inverser la relation liant les paramètres globaux choisis à l’ensemble des données élémentaires de l’ouvrage. L’ensemble de la démarche est appliqué au cas d’une cellule monozone de référence. / Contribution to the use of surrogate models for constrained optimization of energy criteria: application to building design
42

Aeroacústica de motores aeronáuticos: uma abordagem por meta-modelo / Aeroengine aeroacoustics: a meta-model approach

Rafael Gigena Cuenca 20 June 2017 (has links)
Desde a última década, as autoridades aeronáuticas dos países membros da ICAO vem, gradativamente, aumentando as restrições nos níveis de ruído externo de aeronaves, principalmente nas proximidades dos aeroportos. Por isso os novos motores aeronáuticos precisam ter projetos mais silenciosos, tornando as técnicas de predição de ruído de motores cada vez mais importantes. Diferente das técnicas semi-analíticas, que vêm evoluindo nas últimas décadas, as técnicas semiempíricas possuem suas bases lastreadas em técnicas e dados que remontam à década de 70, como as desenvolvidas no projeto ANOPP. Uma bancada de estudos aeroacústicos para um conjunto rotor/estator foi construída no departamento de Engenharia Aeronáutica da Escola de Engenharia de São Carlos, permitindo desenvolver uma metodologia capaz de gerar uma técnica semi-empírica utilizando métodos e dados novos. Tal bancada é capaz de variar a rotação, o espaçamento rotor/estator e controlar a vazão mássica, resultando em 71 configurações avaliadas. Para isso, uma antena de parede com 14 microfones foi usada. O espectro do ruído de banda larga é modelado como um ruído rosa e o ruído tonal é modelado por um comportamento exponencial, resultando em 5 parâmetros: nível do ruído, decaimento linear e fator de forma da banda larga, nível do primeiro tonal e o decaimento exponencial de seus harmônicos. Uma regressão superficial Kriging é utilizada para aproximar os 5 parâmetros utilizando as variáveis do experimento e o estudo mostrou que Mach Tip e RSS são as principais variáveis que definem o ruído, assim como utilizado pelo projeto ANOPP. Assim, um modelo de previsão é definido para o conjunto rotor/estator estudado na bancada, o que permite prever o espectro em condições não ensaiadas. A análise do modelo resultou em uma ferramenta de interpretação dos resultados. Ao modelo são aplicadas 3 técnicas de validação cruzada: leave one out, monte carlo e repeated k-folds e mostrou que o modelo desenvolvido possui um erro médio, do nível do ruído total do espectro, de 2.35 dBs e desvio padrão de 0.91. / Since the last decade, the countries members of ICAO, via its aeronautical authorities, has been gradually increasing the restrictions on external aircraft noise levels, especially in the vicinity of airports. Because that, the new aero-engines need quieter designs, so noise prediction techniques for aero-engines are getting even more important. Semi-analytical techniques have undergone a major evolution since the 70th until nowadays, but semi-empirical techniques still have their bases pegged in techniques and data defined on the 70th, developed in the ANOPP project. An Aeroacoustics Fan Rig to investigate a Rotor/Stator assembly was developed at Aeronautical Engineering Department of São Carlos School of Engineering, allowing the development of a methodology capable of defining a semi-empirical technique based on new data and methods. Such rig is able to vary the rotation, the rotor/stator spacing and mass flow rate, resulting in a set of 71 configurations tested. To measure the noise, a microphone wall antenna with 14 sensors were used. The broadband noise was modeled by a pink noise and the tonal with exponential behavior, resulting in 5 parameters: broadband noise level, decay and form factor and the level and decay of tonal noise. A superficial kriging regression were used to approach the parameters using the experimental variables and the investigation has shown that Mach Tip and RSS are the most important variables that defines the noise, as well on ANOPP. A prediction model for the rotor/stator noise are defined with the 5 approximation of the parameters, that allow to predict the spectra at operations points not measured. The model analyses of the model resulted on a tool for results interpretation. Tree different cross validation techniques are applied to model: leave ou out, Monte Carlo and repeated k-folds. That analysis shows that the model developed has average error of 2.35 dBs and standard deviation of 0.91 for the spectrum level predicted.
43

Analysis and Risk Estimation of High Priority Unstable Rock Slopes in Great Smoky Mountains National Park, Tennessee and North Carolina

Farmer, Samantha 01 August 2021 (has links)
Great Smoky Mountains National Park (GRSM) received 12.5 million visitors in 2020. With a high traffic volume, it is imperative roadways remain open and free from obstruction. Annual unanticipated rockfall events in GRSM often obstruct traffic flow. Using the Unstable Slope Management Program for Federal Land Management Agencies (USMP for FLMA) protocols, this study analyzes high priority unstable rock slopes through 1) creation of an unstable slope geodatabase and 2) generation of a final rockfall risk model using Co-Kriging from a preliminary risk model and susceptibility model. A secondary goal of this study is to provide risk estimation for the three most traveled transportation corridors within GRSM, as well as investigate current rockfall hazard warning sign location to ultimately improve visitor safety with regards to rockfall hazards.
44

Comparação entre as redes neurais artificiais e o método de interpolação krigagem aplicados à pesquisa agronômica /

Vilela, Letícia Colares. January 2004 (has links)
Orientador: Angelo Cataneo / Banca: Célia Regina Lopes Zimback / Banca: Jorim Sousa das Virgens Filho / Banca: Luiz Roberto Almeida Gabriel / Banca: José Fernando Mantovani Micali / Doutor
45

Accelerated optimisation methods for low-carbon building design

Tresidder, Esmond January 2014 (has links)
This thesis presents an analysis of the performance of optimisation using Kriging surrogate models on low-carbon building design problems. Their performance is compared with established genetic algorithms operating without a surrogate on a range of different types of building-design problems. The advantages and disadvantages of a Kriging approach, and their particular relevance to low-carbon building design optimisation, are tested and discussed. Scenarios in which Kriging methods are most likely to be of use, and scenarios where, conversely, they may be dis- advantageous compared to other methods for reducing the computational cost of optimisation, such as parallel computing, are highlighted. Kriging is shown to be able, in some cases, to find designs of comparable performance in fewer main-model evaluations than a stand-alone genetic algorithm method. However, this improvement is not robust, and in several cases Kriging required many more main-model evaluations to find comparable designs, especially in the case of design problems with discrete variables, which are common in low-carbon building design. Furthermore, limitations regarding the extent to which Kriging optimisa- tions can be accelerated using parallel computing resources mean that, even in the scenarios in which Kriging showed the greatest advantage, a stand-alone genetic algorithm implemented in parallel would be likely to find comparable designs more quickly. In light of this it is recommended that, for most lowcarbon building design problems, a stand-alone genetic algorithm is the most suitable optimisation method. Two novel methods are developed to improve the performance of optimisation algorithms on low-carbon building design problems. The first takes advantage of variables whose impact can be quickly calculated without re-running an expensive dynamic simulation, in order to dramatically increase the number of designs that can be explored within a given computing budget. The second takes advantage of objectives that can be !Keywords To Be Included For Additional Search Power: Optimisation, optimization, Kriging, meta-models, metamodels, low-energy design ! "2 calculated without a dynamic simulation in order to filter out designs that do not meet constraints in those objectives and focus the use of computationally expensive dynamic simulations on feasible designs. Both of these methods show significant improvement over standard methods in terms of the quality of designs found within a given dynamic-simulation budget.
46

Probabilistic modelling of geotechnical conditions for offshore wind turbine support structures

Mondrago Quevedo, Monica 05 1900 (has links)
The geotechnical conditions of the soil can fluctuate greatly across the wind farm. This is an issue since geotechnical modelling is the base of the structural design of an offshore wind farm, and the efficient installation of the wind turbines depends on its accuracy. This paper deals with the characterization of the seabed, predicting the soil properties over the total affected area by a wind farm, with the challenge to reduce the required data samples in the site investigation under the number of installed wind turbines, to reduce its cost. It is compared the prediction outcome from two different interpolation methods, kriging and radial basis function, assessing their accuracy by the Mean-Squared Error and the Goodness-of-Prediction Estimate, as well as with a visual examination of their mapping; obtaining higher accuracy for radial basis function and reducing to half the required sample points, from the initial value of installed wind turbines. In a second stage it is studied the soil effect over the foundation, analyzing the results from a FEA, where different geometries of the structure are compared submitted to different load cases to check its limit states. Those results show that the foundation cost can increase four times due to the soil conditions, taking into account only the steel volume, and demonstrating how important is the soil characterization in the foundation design, as it gives the chance to relocate those wind turbines that require more expensive foundations.
47

Combined Use of Models and Measurements for Spatial Mapping of Concentrations and Deposition of Pollutants

Ambachtsheer, Pamela January 2004 (has links)
When modelling pollutants in the atmosphere, it is nearly impossible to get perfect results as the chemical and mechanical processes that govern pollutant concentrations are complex. Results are dependent on the quality of the meteorological input as well as the emissions inventory used to run the model. Also, models cannot currently take every process into consideration. Therefore, the model may get results that are close to, or show the general trend of the observed values, but are not perfect. However, due to the lack of observation stations, the resolution of the observational data is poor. Furthermore, the chemistry over large bodies of water is different from land chemistry, and in North America, there are no stations located over the great lakes or the ocean. Consequently, the observed values cannot accurately cover these regions. Therefore, we have combined model output and observational data when studying ozone concentrations in north eastern North America. We did this by correcting model output at observational sites with local data. We then interpolated those corrections across the model grid, using a Kriging procedure, to produce results that have the resolution of model results with the local accuracy of the observed values. Results showed that the corrected model output is much improved over either model results or observed values alone. This improvement was observed both for sites that were used in the correction process as well as sites that were omitted from the correction process.
48

Estimacion de recursos en un yacimiento de fierro

Salinas Luppi, Ignacio Andrés January 2012 (has links)
Ingeniero Civil de Minas / El presente trabajo trata de la estimación geoestadística de recursos de un yacimiento de fierro que ha sido explorado mediante sondajes de diamantina. Las muestras disponibles contienen información sobre: coordenada espacial, ley de fierro total, ley de sílice, razón de recuperación o magnetismo y densidad de roca (que en verdad está calculada a partir de la ley de fierro, no medida). Una particularidad que presenta la base de datos es el sub-muestreo del magnetismo, del cual se encuentra información solo en 17 de los 70 sondajes, o en 1219 de las 8373 muestras, para ser más preciso. En el cálculo de recursos, lo que se suma son tonelajes de roca y de finos, no leyes. Aun así, lo que se estima usualmente es ley, ya que es lo más simple. Sin embargo, multiplicar a posteriori las estimaciones para obtener los finos y tonelajes introduce sesgo. Por lo tanto este caso de estudio trata con este sesgo al tomar dos enfoques separados a la estimación: El tradicional, con leyes y uno menos convencional, estimando contenidos de fierro sílice y fierro magnético directamente (contenido definido como ley*densidad). En ambos enfoques se utiliza co-kriging al especificar la estructura de la correlación espacial de las variables de entrada a través del modelamiento de los variogramas directos y cruzados, así como las posibles relaciones lineales entre sus medias. Esto último se ve motivado al observar fuertes dependencias lineales durante el análisis exploratorio; y lleva a implementar una variante al co-kriging ordinario tradicional que busca mejorar las estimaciones al restringir las medias de las variables, aun asumiéndolas desconocidas. Comparando ambos enfoques resulta en diferencias de aproximadamente 55 millones de toneladas de mineral y de más de 4% en la ley media estimada. Estas diferencias podrían ser explicadas ya que el primer enfoque estima variables no aditivas (ley, razón de magnetismo), mientras que el segundo enfoque estima variables aditivas directamente (contenido de fierro) y por lo tanto es más confiable desde el punto de vista teórico. Esta explicación además se apoya en una validación realizada con una técnica de partición de muestra (jack-knife), el cual indica que el segundo enfoque tiene una mayor precisión de estimación. Se recomienda entonces para la estimación de yacimientos de fierro evitar trabajar con variables no aditivas como leyes, y trabajar directamente con contenidos de metal, para los cuales la suma entre varios bloques tiene un sentido físico. Se espera que, en el futuro, más atención sea prestada a la medición directa de la densidad de roca en vez de calcularla a partir de la ley; ya que es crucial a la hora de analizar y calcular tonelajes y contenidos de metal.
49

Kriging y simulación secuencial de indicadores con proporciones localmente variables

Frez Ríos, Tamara January 2014 (has links)
Ingeniera Civil de Minas / En la actualidad, los modelos geológicos son generalmente construidos de modo determinístico, imposibilitando la cuantificación de la incertidumbre asociada. Si bien en la minería se le da mayor enfoque a variables continuas como las leyes minerales, un estudio previo de variables categóricas provee subdivisiones con mayor homogeneidad geológica y estadística. Además se es capaz de agregar información importante sobre procesos mineros posteriores. El kriging de indicadores con proporciones localmente variables posee una limitante teórica que se pretende mejorar con este estudio. Este método utiliza sólo un variograma global para cada indicador. Dada la influencia que se tiene de las medias de los indicadores sobre su varianza, la meseta del variograma varía con esta media, lo que no se está considerando. Se propone un método que sí considere estas variaciones, utilizando una variable indicador transformada, más específicamente, a la variable indicador se le resta su media variable para centrar en cero, y además se estandariza para eliminar el efecto del cambio de varianza. El análisis se lleva a cabo a través de dos casos de estudio. El primer estudio consta de la estimación por kriging de indicadores tradicional y con la mejora propuesta, sobre una base de datos sintética con un indicador. A este caso también se le realiza un análisis de sensibilidad para revisar los resultados. El segundo caso de estudio consta de la simulación secuencial de indicadores sobre una base de datos real de una veta, contando con información de un muestreo por canales. Se comparan ambas metodologías y se validan los modelos a través de jack-knife. De las estimaciones resultantes del primer caso, se hace un estudio de los errores promedio y varianza del kriging promedio. Los resultados para ambas metodologías son similares, a excepción de la varianza del kriging, la cual para el método propuesto presenta menores valores y una alta influencia de la media del indicador. Este resultado se mantiene a pesar de disminuir los datos muestreados y cambiar el variograma de los datos sintéticos. Las simulaciones del caso de estudio real, en ambas metodologías, resultaron similares. De acuerdo a un análisis de errores cuadráticos, se simularon más bloques con menor error para la metodología propuesta que en la tradicional. Mediante un jack-knife se validan los modelos y se comparan sus porcentajes de aciertos. Ambas metodologías poseen porcentajes de aciertos iguales, incluso con distintos modelos variográficos. En conclusión, si bien el método propuesto muestra mejoras respecto al método tradicional, estas no son lo suficientemente significativas como para declararlo mejor método. Ambas metodologías presentan resultados de alto porcentaje de acierto, pero entre sí son muy similares. A pesar de esto, el nuevo método presenta las ventajas de tener mayor respaldo teórico, menores tiempos de simulación y una mejor cuantificación de los errores de estimación a través de la varianza del kriging.
50

Influencia de la densidad de muestras en la reconstrucción de cuerpos geológicos

Riquelme Sandoval, Álvaro Ignacio January 2016 (has links)
Ingeniero Civil de Minas / Una de las principales interrogantes en la minería corresponde a la estimación del recurso geológico que, en la etapa evaluativa, determina la cantidad de reservas y condiciona el potencial económico del yacimiento. Debido a que las inversiones son cuantiosas, la necesidad de contar con información confiable es primordial. Para el caso de yacimientos de vetas, la evaluación de recursos se hace más problemática debido a la continuidad variable que presenta este tipo de yacimientos. El objetivo de este trabajo de memoria es el estudio de la incidencia de la cantidad de muestras en la reconstrucción de cuerpos geológicos con distintas características geométricas, mediante la estimación realizada incorporando un campo de direcciones variable. La primera parte de este trabajo consiste en una descripción del formalismo geoestadístico, técnicas de estimación y simulación geoestadística. Además, se hace una revisión bibliográfica de lo realizado en cuanto a incorporar la geología en la evaluación de recursos mineros. Se presenta en detalle la metodología desarrollada para estudiar las variables más importantes a la hora de realizar una estimación de cuerpos sinusoidales, elaborados de manera sintética. Finalmente, se desarrolla un caso de estudio para ilustrar el impacto que tiene el aumento progresivo de sondajes como datos de entrada para la estimación. Se utilizan datos reales de un pórfido cuprífero, donde se generan realizaciones con la metodología convencional, con una sola dirección principal de anisotropía, y con la que incluye direcciones variables, a modo de comparar las precisiones obtenidas bloque a bloque contra la realidad. Los resultados del caso de estudio realizado muestran que la metodología convencional dista mucho, en términos de precisión, de la metodología con direcciones variables, y que las variación de un 30% más de información resultó en una reducción de la sobre estimación del contenido de metal desde un 50% a sólo un 0.6%.

Page generated in 0.0527 seconds