• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 286
  • 26
  • 22
  • 1
  • Tagged with
  • 337
  • 337
  • 337
  • 98
  • 61
  • 61
  • 40
  • 29
  • 28
  • 25
  • 24
  • 24
  • 22
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Manejo de incertidumbre ante pérdida parcial o total de datos en algoritmos basados en métodos secuenciales de Monte Carlo y nueva definición de probabilidad de falla en el contexto de monitoreo en línea

Acuña Ureta, David Esteban January 2016 (has links)
Ingeniero Civil Eléctrico / Desde hace algunos años que la disciplina especializada en el diagnóstico de fallas en sistemas y el pronóstico de eventos que pudieran afectar la salud de éstos, denominada Prognostics and Health Management (PHM), ha ido tomando cada vez más fuerza y ha empezado a consolidarse como una nueva área de la ingeniería. Esta disciplina tiene como eje principal la caracterización del estado de salud de los sistemas dinámicos, ya sea a través de enfoques probabilísticos, posibilísticos, o epistémicos, por nombrar algunos; siendo el enfoque probabilístico el adoptado en la presente Tesis. Dado que la mayoría de los sistemas se conciben mediante complejas relaciones que suelen establecerse en base a no linealidades e incertidumbre no necesariamente Gaussiana, el empleo de métodos secuenciales de Monte Carlo -también llamados filtros de partículas- ha tomado gran relevancia para el diagnóstico de la salud de los sistemas. Los filtros de partículas proveen una distribución empírica de probabilidad para los estados del sistema siguiendo un enfoque Bayesiano. Es muy frecuente que en rutinas de estimación, y en especial al usar filtro de partículas, algunas de las mediciones que debiesen proporcionar los sensores se pierdan de manera parcial o total. En el caso de una pérdida parcial, se propone una estrategia basada en la Teoría de Imputaciones Múltiples desarrollada en los años 60' que permite incorporar la incertidumbre que hay al perder solo parte de la información. Por otra parte, cuando se pierde acceso a la totalidad de las mediciones se puede hablar de un problema análogo al de pronóstico. Se propone un algoritmo que recibe como entrada una distribución empírica producto del final de una etapa de estimación basada en filtro de partículas, en la cual se propaga incertidumbre haciendo uso de sigma-points y del ajuste paramétrico de mezclas de Gaussianas para la aproximación de distribuciones de probabilidad. Además de los algoritmos anteriormente mencionados, en esta Tesis se presenta la deducción y demostración de una nueva medida de probabilidad de falla de sistemas en el contexto de monitoreo en línea, la cual modifica el estado-del-arte y abre nuevas ramas de investigación que pueden influir fuertemente en el desarrollo de nuevos sistemas de toma de decisiones. Los desarrollos presentados en esta Tesis abordan principalmente el caso del problema de estimación y pronóstico del Estado-de-Carga de baterías de ion-litio para el análisis y validación de los algoritmos que se proponen dada su relevancia en la autonomía de los dispositivos electrónicos que requieren procesamiento de información en tiempo real; tales como tablets, celulares, vehículos o micro-redes, por nombrar algunos ejemplos.
142

Desenvolvimento de uma metodologia para caracterização do filtro cuno do reator IEA-R1 utilizando o método de Monte Carlo / Development of methodology for characterization of cartridge filters from the IEA-R1 using the Monte Carlo method

Costa, Priscila 28 January 2015 (has links)
O filtro cuno faz parte do circuito de tratamento de água do reator IEA-R1 que , quando saturado, é substituído, se tornando um rejeito radioativo que deve ser gerenciado. Neste trabalho foi realizada a caracterização primária do filtro cuno do reator nuclear IEA-R1 do IPEN utilizando-se espectrometria gama associada ao método de Monte Carlo. A espectrometria gama foi realizada utilizando-se um detector de germânio hiperpuro (HPGe). O cristal de germânio representa o volume ativo de detecção do detector HPGe, que possui uma região denominada camada morta ou camada inativa. Na literatura tem sido reportada uma diferença entre os valores experimentais e teóricos na obtenção da curva de eficiência desses detectores. Neste trabalho foi utilizado o código MCNP-4C para a obtenção da calibração em eficiência do detector para a geometria do filtro cuno, onde foram estudadas as influências da camada morta e do efeito de soma em cascata no detector HPGe. As correções dos valores de camada morta foram realizadas variando-se a espessura e o raio do cristal de germânio. O detector possui 75,83 cm3 de volume ativo de detecção, segundo informações fornecidas pelo fabricante. Entretanto os resultados encontrados mostraram que o valor de volume ativo real é menor do que o especificado, onde a camada morta representa 16% do volume total do cristal. A análise do filtro cuno por meio da espectrometria gama, permitiu a identificação de picos de energia. Por meio desses picos foram identificados três radionuclídeos no filtro: 108mAg, 110mAg e 60Co. A partir da calibração em eficiência obtida pelo método de Monte Carlo, o valor de atividade estimado para esses radionuclídeos está na ordem de MBq. / The Cuno filter is part of the water processing circuit of the IEA-R1 reactor and, when saturated, it is replaced and becomes a radioactive waste, which must be managed. In this work, the primary characterization of the Cuno filter of the IEA-R1 nuclear reactor at IPEN was carried out using gamma spectrometry associated with the Monte Carlo method. The gamma spectrometry was performed using a hyperpure germanium detector (HPGe). The germanium crystal represents the detection active volume of the HPGe detector, which has a region called dead layer or inactive layer. It has been reported in the literature a difference between the theoretical and experimental values when obtaining the efficiency curve of these detectors. In this study we used the MCNP-4C code to obtain the detector calibration efficiency for the geometry of the Cuno filter, and the influence of the dead layer and the effect of sum in cascade at the HPGe detector were studied. The correction of the dead layer values were made by varying the thickness and the radius of the germanium crystal. The detector has 75.83 cm3 of active volume of detection, according to information provided by the manufacturer. Nevertheless, the results showed that the actual value of active volume is less than the one specified, where the dead layer represents 16% of the total volume of the crystal. A Cuno filter analysis by gamma spectrometry has enabled identifying energy peaks. Using these peaks, three radionuclides were identified in the filter: 108mAg, 110mAg and 60Co. From the calibration efficiency obtained by the Monte Carlo method, the value of activity estimated for these radionuclides is in the order of MBq.
143

Aplicación del modelo estadístico de Monte Carlo en la predicción del precio de los metales y valor de mineral para evaluación de rentabilidad del proyecto minero Sofía D – U.E.A. María Teresa ejecutando el método sub level stoping con relleno hidráulico cementado

Díaz Acuña, Jose Walter, Romero Vásquez, Manuel Diego 18 February 2020 (has links)
Hoy en día, los modelos estadísticos juegan un papel importante en las todas industrias ya que generan mayor nivel de confianza durante la toma de decisiones, dado que se basa en un análisis matemático que puede predecir diferentes escenarios para un proceso; tal es el caso de la simulación de Monte Carlo, metodología basada en la generación de números aleatorios respecto a una o más variables que forman parte de un proceso, parametrizado matemáticamente, y cuyo resultado expondrá diferentes escenarios futuros para un evento en particular. La U.E.A. María Teresa, propiedad de Minera Colquisiri S.A., pretende explotar el proyecto de profundización “Sofía D”, a través del método de extracción “Sublevel Stoping” usando el Relleno Hidráulico Cementado (RHC) a una razón de 1,600 toneladas por día (TPD) y que a la fecha junio 2019 posee 6,596,963 toneladas métricas (TM) de reserva mineral con una ley promedio 6.85 %. Ante el contexto descrito, la tesis desarrolla una ruta del uso de la herramienta Monte Carlo, aplicada al precio de los metales, y su posterior evaluación de rentabilidad en base al proyecto en mención. La investigación consta de tres etapas: (1) Metodología de Monte Carlo, cuyo output es la simulación de diferentes escenarios respecto a los Ingresos Brutos Anuales (IBA) para 1,600 TPD entre los años 2019 al 2032; (2) Evaluación de rentabilidad, que busca calcular los indicadores de rentabilidad, que son el Valor Actual Neto (VAN) y Tasa Interna de Retorno (TIR), cuyos inputs son los IBA, Costo Capital (CAPEX) y Costo de Operación (OPEX); y (3) Análisis de los indicadores de rentabilidad, que determinó un VAN de 99,902,835 USD con un TIR de 25.4 % que demuestran la viabilidad del proyecto y sus posibles ingresos durante su tiempo de operación. Adicionalmente, se simuló escenarios futuros para el caso de 2,500 TPD, donde se obtuvo un VAN de 153,508,993 USD con un TIR de 21.9 %, que en comparación con los indicadores de 1,600 TPD resulta una más rentable y se recomienda como una alternativa factible de operación. En conclusión, queda demostrado que el método de Monte Carlo y su posterior análisis estadístico puede trabajar en sinergia en la evaluación de rentabilidad de un proyecto; no solo por su practicidad del método, sino también porque permite explorar escenarios futuros y en consecuencia elegir la mejor opción para una operación en particular. / Nowadays, the statistical models play an important role in all industries, since they generate a greater level of confidence during the decision making, due to it is based on mathematical analysis which can predict various scenarios for a process. Such is the case of Monte Carlo simulation, a methodology based on random samples generation relying on one or more variables which are part of one process, mathematically parameterized, and whose result will expose different future scenarios for a particular event. The A.E.U. María Teresa, Minera Colquisiri S.A. property, intends to explore the "Sofía D" deepening project through the “Sublevel Stoping” extraction method using the Cemented Hydraulic Fill (CHF) at a rate of 1,600 tons per day (TPD) and that as of June 2019 it has 6,596,963 metric tons (MT) as mineral reserve with an average grade of 6.85%. In the described context, the thesis develops a route of the use of the Monte Carlo tool, applied to the price of metals, and its subsequent evaluation of profitability based on the project in question. The investigation consists of the following three stages: (1) Monte Carlo methodology, whose output is the simulation of different scenarios with respect to the Annual Gross Income (IBA) for 1,600 TPD between the years 2019 to 2032; (2) Profitability assessment, which seeks to calculate the profitability indicators, which are the Net Present Value (NPV) and Internal Rate of Return (IRR), our inputs are IBA, Capital Cost (CAPEX) and Operating Cost (OPEX); and (3) profitability indicators analysis, which determined an NPV of USD 99,902,835 with an IRR of 25.4% that demonstrate the viability of the project and its possible income during its operating time. Furthermore, Future scenarios were simulated in the 2,500 TPD case, where an NPV of USD 153,508,993 was obtained with an IRR of 21.9%, which in comparison with the indicators of 1,600 TPD is a more profitable one and consequently is recommended as a feasible operation alternative. In conclusion, has been demonstrated that the Monte Carlo method and its subsequent statistical analysis can work in synergy in the evaluation of the profitability of a project; not only because of its practice of the method but also because it allows to explore future events and to choose the best option for a particular operation.
144

Estimación de la vulnerabilidad sísmica de viviendas de albañilería confinada de Lima

Lovon Quispe, Holger Mario 01 June 2017 (has links)
El objetivo de este trabajo es desarrollar funciones de fragilidad y de vulnerabilidad para edificios informales de albañilería confinada de Lima, Perú. Estas funciones pueden ser utilizadas para desarrollar escenarios sísmicos a escala urbana. Se ha desarrollado una base de datos a partir de encuestas realizadas en estudios previos. Esta base de datos contiene información acerca de las características estructurales de viviendas informales de albañilería confinada de la ciudad de Lima (e. g. densidad de muros, área de la edificación, altura). Cada característica ha sido modelada mediante funciones distribución de probabilidad. Utilizando simulación Montecarlo se ha generado una población sintética de viviendas de albañilería confinada a partir de las funciones de probabilidad que describen la muestra. Posteriormente se ha utilizado un método simplificado para calcular la curva de capacidad de la población sintética mencionada. En este punto, la demanda sísmica fue definida utilizando un grupo de registros sísmicos. Estos registros fueron seleccionados de acuerdo a la actividad sísmica de la costa del Perú (e. g. tipo de ruptura, distribución de intensidad sísmica, niveles de magnitud sísmica). Se utilizó el método DBELA (Displacement-based Earthquake Loss Assessment) para determinar el estado de daño de cada vivienda cuando es sujeta a cada registro sísmico. Se ensamblaron matrices de probabilidad de daño a partir de los resultados obtenidos. Posteriormente se obtuvo el periodo de aceleración espectral más eficiente para representar los estados de daño registrados. Los datos obtenidos se ajustaron a funciones de fragilidad utilizando el método de mínimos cuadrados. Finalmente, se definieron factores de daño de acuerdo a las recomendaciones de HAZUS (Hazard in the United States). Se obtuvieron curvas de vulnerabilidad de la convolución entre las curvas de fragilidad y los factores de daño. Se han utilizado las funciones obtenidas para estimar daños en sismos con nivel de ocurrencia “rara”. Aunque en nuestro país no se tienen datos precisos sobre los efectos que estos sismos tendrían en viviendas de albañilería confinada, los resultados muestran valores razonables en relación a los que se han registrado en anteriores sismos. De la interpretación de las curvas se esperan aproximadamente 10% y 40% de colapsos en viviendas informales de 1 piso y de 2 pisos respectivamente. / Tesis
145

Simulación de la dinámica del micromáser más allá de la RWA

García-Calderón Palomino, Leandro 09 May 2011 (has links)
Mediante técnicas de simulación Montecarlo, prescindiendo de la aproximación de la onda rotante (RWA), se predice la aparición de efectos medibles en los llamados "estados atrapados", rasgo eminentemente cuántico del micromáser o máser monoatómico.
146

Monte Carlo - Metropolis Investigations of Shape and Matrix Effects in 2D and 3D Spin-Crossover Nanoparticles

Caballero Nolte, Rafael Eduardo January 2017 (has links)
Se estudia un modelo tipo Ising tomando en cuenta las interacciones de corto y largo alcance, así mismo como el posible efecto de la superficie del sistema y la forma del mismo sobre las propiedades magnéticas del material. Esto se realiza para investigar el comportamiento de los sistemas compuestos por nanopartículas ordenadas en una matriz. Ademas se analiza el papel que juega la relación entre numero de partículas en la superficie con las que se encuentran en el volumen de la matriz con respecto al comportamiento de histeresis del sistema. / An Ising model is studied, taking into account short and long range interactions, as well as the possible effect of the system surface and its shape on the magnetic properties of the material. This is done to investigate the behavior of systems composed of nanoparticles ordered in a matrix. In addition, the role of the relationship between the number of particles on the surface and those in the volume of the matrix with respect to the behavior of system hysteresis is analyzed.
147

Explorando y analizando el espacio de parámetros del modelo Type I Seesaw con simuladores Monte Carlo para eventos en el ILC

Rodríguez Quispe, Walter Enrique 15 February 2023 (has links)
En la actualidad, el Modelo Estándar (SM) es la teoría más precisa que se tiene para la descripción de las partículas elementales y sus interacciones fundamentales. Esta teoría, empero, está incompleta: una de sus carencias resulta de indicar que los neutrinos no tienen masa. Esto es incongruente porque la masividad de estas part´ıculas ha sido demostrada en los experimentos de oscilaciones de neutrinos. Ante esto, se han propuesto varios modelos Más Allá del Modelo Estándar (BSM) que logran brindarle masa a los neutrinos. En este trabajo se le da principal atenci´on al mecanismo Type I Seesaw, que propone la existencia de neutrinos pesados. Es así como en este trabajo se aborda un análisis para el estudio del modelo mencionado en el futuro International Linear Collider (ILC), desde el uso de conceptos propios del Large Hadron Collider (LHC), para la búsqueda de señales de neutrinos pesados. Los eventos que surgirían en este colisionador siguiendo el modelo en cuestión se obtuvieron del simulador Monte Carlo MadGraph5_aMC@NLO y el análisis de estos se realizó en MadAnalysis 5. El estudio demuestra la importancia de incluir un análisis con información tanto de la simulación con los datos del Monte Carlo, que brinda información sin considerar la observabilidad de lo generado, como de los objetos reconstruidos, que brinda datos recolectados por los detectores, para decantar la elección de un canal en específico.
148

Estudio de un magnetrón utilizando el método de elementos finitos

Pérez Caro, Erik Alfredo 01 February 2021 (has links)
Magnetron sputtering system is a technique that consists in extracting atoms from a target material by collisions of energetic ions of an inert gas. It is widely used in semiconductor industries and materials processing research for developing thin films by deposition. During this process a low temperature capacitively coupled plasma is generated near the cathode and several variations of the properties of this plasma can affect the thin film deposition process and quality. An approach to study these types of systems is by computational modeling. The use of robust computational codes that can handle complicated geometries and can solve complex systems of differential equations. In this present project we aim to model numerically a system of magnetrons developed at the Materials Science and Renewable Energies (MatER) laboratory. Using the geometry measurements and the material properties of each component taken in the laboratory, a CAD geometry was developed. Furthermore, the electric and magnetic fields are solved for the geometry configuration and, by implementing a Monte Carlo simulation, the electron trajectories and velocity distributions in the system are calculated. Finally, we use a multi-fluid model to solve a simplified system of a 1 dimensional capacitively coupled plasma and recover the system properties. The method to solve the respective system of equations is the finite element method implemented in the software COMSOL Multiphysics.
149

Fusión de efectos para modelos de regresión con respuesta positiva bajo un enfoque bayesiano

Dongo Román, Andie Bryan 10 January 2022 (has links)
El presente trabajo tiene como objetivo adaptar el modelo bayesiano para fusión de efectos presentado por Pauger y Wagner (2019), de tal manera que sea adecuado para modelos de regresión con respuesta positiva bajo una distribución gamma. El modelo plantea como distribución a priori de los coeficientes de cada covariable cualitativa a una normal multivariada, deducida a partir de una distribución a priori spike y slab para la diferencia de cada par de efectos, cuya matriz de precisión permite conocer qué niveles pueden fusionarse. La estructura de la matriz de precisión depende de un hiperparámetro que permite estimar las probabilidades de fusión a posteriori entre cada par de niveles, con las cuales se pueden agrupar aquellos niveles con efectos similares mediante la función de pérdida de Binder. La estimación a posteriori del modelo es realizada con métodos MCMC utilizando el programa JAGS en R. Se aplicó la metodología a un conjunto de datos reales extraído de la Encuesta Nacional de Hogares (ENAHO) del año 2019, donde se pudo verificar la existencia de una brecha salarial por etnicidad en los entrevistados de la macro región sur del Perú. Así mismo, se incluyó en el caso aplicativo a la interacción entre los efectos de la etnicidad y el sexo, revelándose que la brecha por género existente es mayor en la población aymara y en la no indígena, en comparación con la población quechua.
150

Regresión espacial cuantílica para variables acotadas entre (0,1)

García Céspedes, Carlos Jeffer 26 October 2020 (has links)
El Perú es un país emergente donde el desarrollo se centra en algunas ciudades y distritos específicos. Esto conlleva a mucha desigualdad económica por ello resulta importante dar seguimiento a la incidencia de pobreza en el país. De acuerdo al nivel de precariedad, la pobreza puede considerarse extrema o no extrema. En este contexto, estudiamos la incidencia de pobreza no extrema a través de un modelo de regresión cuantílica espacial a nivel distrital en la provincia de Lima utilizando la distribución de Kumaraswamy combinada con un efecto espacial intrínseco condicional autorregresivo (ICAR). Para tratar y evaluar la posible confusión espacial entre los efectos espaciales y las covariables de efectos fijos, se considera, también, el enfoque SPOCK (Spatial Orthogonal Centroid \K"orrection). Nuestros modelos pertenecen a la clase de modelos jerárquicos, para los cuales la inferencia se puede realizar utilizando el método de Monte Carlo Hamiltoniano. Por lo tanto, el modelo es computacionalmente factible para grandes conjuntos de datos, puede describir puntos extremos de la distribución de la incidencia de pobreza no extrema e identificar qué factores son importantes en las colas de la distribución de los datos.

Page generated in 0.046 seconds