• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 8
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 27
  • 7
  • 6
  • 5
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Desarrollo de un programa de simulación basado en el método de Montecarlo para el cálculo de dosis con maniquíes divididos en voxels. Aplicaciones en tomografía computarizada

Salvadó Artells, Marçal 10 December 2004 (has links)
Among the different radiodiagnostic techniques, computed tomography (CT) represents the major contribution to the collective dose. In order to have available a tool to assess and ascertain the imparted dose upon CT examinations, we have developed and validated a method to calculate radiation absorbed dose in CT examinations from images of phantoms and standard patients by using a voxel-based Monte Carlo simulation method.Simulations and measurements of radiation dose were conducted in air, within cylindrical phantoms of both circular and elliptic cross sections, and in an anthropomorphic phantom, with the simulations being made on volumes based on their own CT images. The radiation beam geometry (focus-to-axis distance, field of view, collimation, and primary and beam shaper filtration) and the X-ray spectral distribution for each scanner under study were implemented for the simulation. Simulations were performed for both single axial scan and a series of contiguous scans covering the complete phantom-object volume. All the axial CT images were reduced to a 256 x 256 matrix and stacked in a volume. Patient images were segmented prior to simulation of radiation transport by using three categories (lung, muscle and bone). To test the method, values of CT specific dose quantities for CT exposure simulations were calculated and compared to those derived from measurements performed free-in-air and within cylindrical phantoms. To complete the scope of the work, series of CT scans of the head, neck, and trunk of an anthropomorphic phantom and standard patients were simulated. Using the EGS4 code, written in an extended FORTRAN called Mortran3, we have estimated first the radiation dose in the individual voxels; radiation transport was simulated by means of the EGS4 code system. The simulation of photon transport included incoherent and coherent scattering, photoelectric absorption with creation of fluorescent photons or Auger electrons. The photon interaction cross sections and the electronic density for each material or compound were prepared by the PEGS4 pre-processor. The electron interaction processes considered were inelastic collisions with atomic electrons, scattering effects by the nucleus, and bremsstrahlung losses that are negligible for the energies considered. The low energy cutoff for photon transport was 5 keV, whereas for electrons was fixed at 30 keV, with a ESTEPE (fraction of the energy lost in a step) value of 1%. The conversion of energy fluence to dose rate was made using the mass energy-absorption coefficients from Hubbell and Seltzer. The number of histories in each simulation was 3×106 per each 1 cm slice.Secondly, the dose CT indices for peripheral and central positions and the dose to bladder were estimated as well, the later being used to test organ doses in the anthropomorphic phantom. The dose measurements were performed by using a "pencil" ionisation chamber and 30 thermoluminiscent dosimeters. The comparison between simulated and measured dose data shows differences below 5% in all cases.The designed program allows contrasted results to be achieved, and might be an adequate tool for the analysis of doses imparted to individual patients with different models of CT scanner. / De las diferentes técnicas usadas con fines radiodiagnósticos, las exploraciones con equipos de tomografía computarizada (TC) suponen la mayor contribución a la dosis colectiva, ya que las dosis impartidas en cada exploración de TC son significativamente más elevadas que las de los estudios radiológicos convencionales. Con el fin de disponer de una herramienta para conocer las dosis impartidas a los pacientes en estudios de TC, se ha desarrollado y validado un programa de simulación para estimar la dosis absorbida en volúmenes divididos en voxels usando técnicas de Montecarlo. Para obtener los "objetos" tridimensionales divididos en voxels que representen a cada maniquí o paciente, se han transformado las propias imágenes de TC mediante la segmentación en materiales u órganos, y posteriormente se han apilado a lo largo del eje longitudinal. El haz se ha simulado teniendo en cuenta los espectros de emisión de rayos X, la filtración total del equipo (filtración primaria y filtro de forma) y reproduciendo la geometría concreta de irradiación para los tres equipos utilizados (dos helicoidales y un multicorte). Mediante el código EGS4 se han reproducido los procesos relevantes (interacción y transporte de las partículas) en el rango de energías de los equipos de TC, y se ha estimado la energía depositada en cada voxel. Durante el proceso de validación se han realizado estudios de dosis absorbida en aire, en maniquíes cilíndricos de sección circular y elíptica, y en un maniquí antropomórfico, construidos a partir de sus propias imágenes de TC. Se han comparado los resultados de la simulación con los de medidas realizadas en maniquíes físicos utilizando una cámara de ionización o dosimetría por termoluminiscencia. El análisis de las diferencias y de las incertidumbres atribuidas a los resultados ha mostrado que ambas son compatibles. Una vez validado el programa de simulación se ha aplicado a tres estudios concretos, permitiendo estimar la dosis promedio por rodaja, y la dosis promedio equivalente en distintos órganos de dos maniquíes antropomórficos y de seis pacientes seleccionados para representar las distintas morfologías de ambos sexos. También se han asignado equivalencias entre maniquíes y grupos de pacientes pediátricos de edades comprendidas entre los 0 a los 15 años. Finalmente se ha aplicado el método a un caso real de protección radiológica mediante la utilización de protectores con bismuto destinados a reducir la dosis en ojos, tiroides y mamas.El programa diseñado, que se puede adaptar a cada estudio particular, permite obtener resultados contrastados y puede ser una herramienta adecuada para analizar las dosis impartidas a pacientes individuales en cada protocolo y equipo de TC concreto. Además, el programa se muestra como herramienta eficaz para analizar los parámetros que influyen en la distribución de dosis, ya sean geométricos, del haz, o relacionados con los modos de adquisición del equipo.
12

Modeling and Simulation of Polarization Mode Dispersion and Polarization Dependent Loss

Reimer, Michael January 2007 (has links)
Novel theoretical formulations and efficient simulation methods for polarization-mode dispersion (PMD) and polarization-dependent loss (PDL) that are directly applicable to optical network design are developed. In particular, a formalism based upon the Magnus expansion is advanced for the determination of the frequency evolution of the Mueller matrix in terms of increasing orders of PMD and PDL. Several previous models of polarization evolution are shown to be specializations of this more general formalism. A least-squares algorithm that extracts PMD and PDL coefficients from repeated measurements of the output Stokes vector of an optical system for a random set of input polarization states is introduced and subsequently applied to the rapid experimental determination of the probability density of the differential group delay of a fiber-squeezer based PMD emulator. The applicability of Clifford algebra and Pade-approximant techniques to the efficient simulation of the wavelength dependence of PMD and PDL is also discussed.
13

Análisis de Riesgo de Desabastecimiento en el SIC

Pérez Vargas, Leonardo January 2008 (has links)
En estos días, el sector eléctrico nacional esta atravesando por una complicada situación de crisis energética, la cuál depende principalmente de la variabilidad hidrológica. Los estudios de abastecimiento eléctrico realizados mediante modelos nacionales de coordinación hidrotérmica, consideran sólo la aleatoriedad hidrológica como única variable aleatoria en sus horizontes de evaluación, ya que de ella depende gran parte de la capacidad de generación del SIC. Sin embargo, las dificultades actuales del sector eléctrico para garantizar el suministro de energía en el corto y mediano plazo hacen que nuevas variables puedan tener una incidencia relevante en la probabilidad de desabastecimiento, como la disponibilidad de combustibles y el crecimiento de la demanda eléctrica El presente trabajo busca ampliar un modelo de coordinación hidrotérmica, modelando e incorporando dos nuevas incertidumbres que influyen en la estimación de desabastecimiento eléctrico: crecimiento de la demanda energética y disponibilidad de combustibles. El objetivo principal es mejorar las estimaciones de probabilidad de déficit en el Sistema Interconectado Central y de otros estadísticos de interés. Se construyo un mecanismo de sorteo hidrológico pseudoaleatorio en la fase de simulación que permite balancear la frecuencia en que son sorteadas las hidrologías del registro histórico. Esto permite reducir los errores muestrales de los estadísticos, convergiendo al valor esperado de ellos con un menor número de secuencias hidrológicas a simular. La incorporación de las incertidumbres se realiza en la fase de simulación de una herramienta de coordinación hidrotérmica. Se utiliza el método de Montecarlo para la simulación del sistema eléctrico bajo distintos escenarios hidrológicos, demanda, y de disponibilidad de combustibles. La plataforma escogida para el desarrollo de este trabajo es el modelo OMSIC. Los modelos implementados permiten evaluar la incidencia de estas nuevas incertidumbres sobre estadísticos de interés, los que resultan de la simulación de la operación del sistema eléctrico en un horizonte de estudio. Finalmente se evaluó la situación de abastecimiento eléctrico del SIC para los próximos cinco años, simulando numerosos casos con incertidumbres distintas. Los resultados no entregan estimaciones de desabastecimiento alarmistas, pero muestran que el sistema eléctrico es vulnerable a situaciones de sequía en años venideros. Se concluye que contar con nuevas incertidumbres permite simular un mayor número de distintos escenarios, lo que lleva a evaluar el panorama de abastecimiento eléctrico de manera más extensiva, por lo que se obtienen mejores estimaciones de probabilidad de déficit en el SIC, así como también estimaciones más confiables de otros estadísticos de interés utilizados en diversos estudios de planificación y rentabilidad de proyectos, como costos marginales del sistema proyectados para años futuros y nivel de déficit energético esperado.
14

Simulação Monte Carlo e estudos analíticos em processos de solidificação / Monte Carlo simulation and analytic studies of phase transition

Marco Antonio Alves da Silva 17 August 1987 (has links)
A função partição do modelo SOS é analisada, mostrando heuristicamente que acima da transição de rugosidade, TR, este modelo se torna essencialmente um problema unidimensional. Os resultados para a rugosidade superficial e calor específico são comparados com uma simulação Monte Carlo de uma rede mxm (m=20, 40, 80, 100). Um novo modelo SOS unidimensional é introduzido o qual mostra um bom acordo para regiões de altas e baixas temperaturas com o modelo SOS bidimensional. Foi dedicada atenção especial na estimativa da temperatura de transição pelo método Monte Carlo, a qual foi estabelecida como sendo TR= 0.80. Através de um aprimoramento no método Monte Carlo, aplicado a um sistema contendo 224 discos duros, obteve-se o loop de van der Waals, indicando assim, uma coexistência de fases para densidades entre 1.29 &#60 &#964 &#60 1.36. Este resultado até então, só tinha sido obtido através da técnica dinâmica molecular para 870 discos / The partition function of the SOS model is analysed and it is shown heuristically that above the roughening transition temperature, TR, this model becomes essentially na one-dimensional problem. The results for the surface roughness and surface specific heat are compared with a Monte Carlo simulation of a mxm lattice (m= 20, 40, 80, 100). A new one-dimensional SOS model is introduced wich shows a good agreement with the ordinary two dimensional SOS model for low and high temperatures. Especial attention was paid for the Monte Carlo estimation of the roughening transition temperature which was stablished as being TR= 0.80. Through na improvement in the choice of the most representative configurations in the Monte Carlo procedure, applied to a system containing 224 hard disks, it was possible to obtain the van der Waals-type loop curve, showing then, a fase coexistence in a density range 1.29 &#60 &#964 &#60 1.36. This result has so far only been obtained by molecular dynamic procedure for 870 disks
15

Physics of bacterial nucleoid organiation and large-scale gene expression / Physique de l'organisation du nucléoïde bactérien et de l'expression de gènes à grande échelle

Scolari, Vittore Ferdinando 15 October 2014 (has links)
L'ADN génomique des bactéries existe dans un complexe dynamique riche en protéines, le "nucléoïde'', très bien organisé à différentes échelles de longueur. Cette thèse décrit notre modélisation et analyse des données en mettant l'accent sur l'organisation du nucléoïde de \textit{E. coli}, et sur comment cette organisation affecte l'expression des gènes. La première partie du travail est une revue des progrès récents expérimentaux et théoriques quantifiant l'organisation physique (la géométrie et le compactage) du chromosome bactérien. En particulier, nous soulignons le rôle que la physique de la matière molle et la physique statistique jouent dans la description de ce système. Une deuxième partie de l'ouvrage traite d'un modèle de la physique des polymères inspiré par deux caractéristiques du nucléoïde: auto-adhérence osmotique et effet des protéines de pontage. Les résultats sont une caractérisation qualitative du diagramme de phase, qui montre que les nucléoïdes forment des domaines distincts sans interactions intra-spécifiques. La thèse couvre également plusieurs approches d'analyse de données pour tester les connexions entre l'organisation du nucléoïde avec l'expression des gènes (RNA-Seq) et des protéines (ChIP-Seq). Cette dernière partie contient une description de l'outil web NuST, qui permet d'effectuer de simples analyses statistiques sur de multiples échelles. En outre, nous présentons une étude de corrélation d'un grand nombre de mesures d'expression génomique dans différentes conditions de croissance, et nous le comparons avec les cartes d'interaction (Hi-C) spatiale entre le chromosome. / The genomic DNA of bacteria exists in a complex and dynamic protein-rich state, which is highly organized at various lengthscales. This thesis describes a work of physical modeling and data analysis focused on the E. coli genome organization, in the form of the "nucleoid'', and on how nucleoid organization affects gene expression.The first part of the work is a review of the recent experimental andt heoretical advances quantifying the physical organization (compactionand geometry) of the bacterial chromosome with its complement of proteins (the nucleoid). In particular, we highlight the role that statistical and soft condensed matter physics play in describing this system of fundamental biological importance.A second part of the work discusses a simple polymer physics model inspired by two main features of the nucleoid: osmotic self-adhesion and protein bridging. Results are summarized by a qualitative characterization of the phase diagram of this model which shows the general feature that distinct domains may form without the need forintra-specific interactions.The thesis also covers several data analysis approaches to test possible connections between the physical organization of the nucleoid with gene expression (RNA-Seq) and protein binding (ChIP-Seq) datasets. This latter part contains a description of the NuST webtool, which consists of a database which collect datasets from past experiments and an implementation of simple multi scale statistical analysis tools. Additionally, we introduce a correlation study of a large number (about 300) of genome-wide expression data-sets, also compared to the outcome to the published genome interaction map (Hi-C)data.
16

Evaluación del desempeño sísmico de puentes continuos

Vargas Bejarano, Cesar Isidoro 22 September 2017 (has links)
En esta tesis se utilizan dos métodos para la evaluación sísmica de puentes. Los métodos usados son el análisis dinámico incremental y simulación de Montecarlo usando Redes neuronales artificiales para la generación de curvas de fragilidad. El análisis dinámico incremental arroja una base de datos bastante amplia. El tratamiento estadístico utilizado abarca conceptos tanto de estadística descriptiva como inferencial. Así se presentan histogramas, frecuencias relativas acumuladas, valores de centralización, dispersión etc. Desde el punto de vista poblacional se presentan los valores de media y proporción poblacional para muestras pequeñas. Para la media se usó el teorema del límite central con la distribución t-student y para la proporción la distribución normal. El segundo método es un proceso de simulación con Montecarlo usando redes neuronales artificiales. Montecarlo toma la muestra de manera aleatoria, debido a esto para obtener resultados confiables se necesitan muchas simulaciones que conllevaría a un costo numérico muy alto. Por ello se usó las redes neuronales artificiales como “reemplazo” del modelo estructural no lineal. Para lograr esto la red se “entreno” con una base de datos del modelo estructural. Para la regresión se utilizó una red supervisada tipo feedforward (red hacia adelante), con el algoritmo de entrenamiento backpropagation (retropropación). La conclusión del trabajo confirma que con la red neuronal artificial se obtienen errores aceptables demostrando que es un MÉTODO DE REGRESIÓN poderoso para sistemas no lineales. La metodología propuesta demostró ser un método de simulación práctico debido a que usa redes neuronales entrenadas para generar curvas de fragilidad. Esto debido a que las redes neuronales tienen un costo numérico menor a un análisis dinámico no lineal. / Tesis
17

Effcient Monte Carlo Simulations for the Estimation of Rare Events Probabilities in Wireless Communication Systems

Ben Issaid, Chaouki 12 November 2019 (has links)
Simulation methods are used when closed-form solutions do not exist. An interesting simulation method that has been widely used in many scientific fields is the Monte Carlo method. Not only it is a simple technique that enables to estimate the quantity of interest, but it can also provide relevant information about the value to be estimated through its confidence interval. However, the use of classical Monte Carlo method is not a reasonable choice when dealing with rare event probabilities. In fact, very small probabilities require a huge number of simulation runs, and thus, the computational time of the simulation increases significantly. This observation lies behind the main motivation of the present work. In this thesis, we propose efficient importance sampling estimators to evaluate rare events probabilities. In the first part of the thesis, we consider a variety of turbulence regimes, and we study the outage probability of free-space optics communication systems under a generalized pointing error model with both a nonzero boresight component and different horizontal and vertical jitter effects. More specifically, we use an importance sampling approach,based on the exponential twisting technique to offer fast and accurate results. We also show that our approach extends to the multihop scenario. In the second part of the thesis, we are interested in assessing the outage probability achieved by some diversity techniques over generalized fading channels. In many circumstances, this is related to the difficult question of analyzing the statistics of the sum of random variables. More specifically, we propose robust importance sampling schemes that efficiently evaluate the outage probability of diversity receivers over Gamma-Gamma, α − µ, κ − µ, and η − µ fading channels. The proposed estimators satisfy the well-known bounded relative error criterion for both maximum ratio combining and equal gain combining cases. We show the accuracy and the efficiency of our approach compared to naive Monte Carlo via some selected numerical simulations in both case studies. In the last part of this thesis, we propose efficient importance sampling estimators for the left tail of positive Gaussian quadratic forms in both real and complex settings. We show that these estimators possess the bounded relative error property. These estimators are then used to estimate the outage probability of maximum ratio combining diversity receivers over correlated Nakagami-m or correlated Rician fading channels
18

Suppression du régime transitoire initial des simulations Monte-Carlo de criticité

Richet, Yann 13 December 2006 (has links) (PDF)
Les calculs Monte-Carlo de criticité permettent d'estimer le facteur de multiplication effectif ("k-effectif") d'un système fissile au cours d'itérations simulant la propagation d'une population de neutrons, formant une chaîne de Markov. L'initialisation arbitraire de la population des neutrons simulés peut biaiser fortement l'estimation du k-effectif du système, défini comme la moyenne de la séquence des k-effectifs estimés à chaque itération. Un modèle simplifié de cette séquence de k-effectifs d'étapes est établi à partir du contexte technique d'exploitation industrielle des calculs Monte-Carlo de criticité. Des tests statistiques, inspirés des propriétés du pont brownien, sont construits pour discriminer la stationnarité de la séquence des k-effectifs d'étapes. Le régime transitoire initial éventuellement détecté est alors supprimé pour améliorer l'estimation du k-effectif du système. Les différentes déclinaisons de cette méthodologie sont détaillées puis comparées, d'une part sur un plan d'expériences représentatif des calculs Monte-Carlo de criticité, et d'autre part sur des calculs réels de configurations de criticité. Finalement, les performances observées sur ces applications permettent d'envisager une exploitation pertinente dans les calculs Monte-Carlo de criticité industriels.
19

Aplicación del método de Monte Carlo para programación de túneles en roca

Nielsen Isla, Sven Erik January 2016 (has links)
Ingeniero Civil / El presente trabajo de memoria busca acercar a las empresas constructoras y consultoras a desarrollar las programaciones de obras civiles, en específico, túneles en roca, con mayor conciencia sobre los índices de confianza asociados a los plazos durante la etapa de construcción. Existen diversos métodos para la programación de la construcción de un túnel. Hoy en día las empresas constructoras utilizan uno determinístico, únicamente basado en la experiencia de los expertos en obras subterráneas y sin una noción respaldada de los posibles atrasos durante la construcción. Si bien la tarea es llevada a cabo de manera competente, la retención del conocimiento resulta ser un problema cada vez más frecuente. Debido a esto, este trabajo de memoria propone realizar la programación de túneles a través de un método probabilístico, particularmente una simulación de Monte Carlo, haciendo uso de registros de obras subterráneas ya realizadas. Esto se aplicará para el túnel del proyecto en etapa de construcción denominado Embalse Valle Hermoso . Para llevar a cabo la simulación de Monte Carlo es necesario contar con un conjunto de registros de avance que permitan desarrollar las distribuciones de probabilidades pertinentes. Para esto se utilizaron los datos de un túnel de similares características ya finalizado. Es importante destacar que la comunicación entre los departamentos de estudios y obra se hace muy compleja debido a que en obra se controlan únicamente los avances lineales diarios, mientras que los estudios de los plazos o programas preliminares, son habitualmente realizados estimando el tiempo de ciclo constructivo propio del túnel. Entonces se propone para un siguiente estudio, registrar durante la construcción los tiempos de cada actividad que conformen los ciclos constructivos del túnel, con esto se podrá acceder a mejores estimaciones de los plazos y sus variaciones asociadas. Se concluye que el método de Monte Carlo utilizando datos empíricos es bastante funcional si se cuenta con proyectos análogos al que se quiera estudiar.
20

Análisis de influencia bajo inferencia bayesiana en evaluaciones escolares de altas consecuencias

Christiansen Trujillo, Andrés Guillermo 30 July 2018 (has links)
La presente investigación estudia una metodología para la detección de observaciones atípicas mediante un análisis de influencia bajo la perspectiva de la inferencia bayesiana. Se utiliza la medida de phi-divergencia y el estimador de Monte Carlo, derivado de ésta, trabajados previamente por Peng y Dey (1995), para el cálculo de las divergencias Kullback-Leibler, distancia rectilínea y ji-cuadrado. Además, en el presente trabajo se busca realizar este análisis de influencia en evaluaciones de altas consecuencias (evaluaciones cuyos resultados tienen un alto impacto en la vida de los estudiantes o docentes). El estudio de simulación revela que es posible recuperar observaciones previamente distorsionadas como atípicas. Finalmente, se aplica la metodología a una evaluación realizada por el Ministerio de Educación. Esta aplicación revela que la metodología estudiada es capaz de identificar escuelas con resultados no esperados dadas sus condiciones y resultados anteriores.

Page generated in 0.0546 seconds