• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • Tagged with
  • 9
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The role of gas fragmentation in the formation of primordial supermassive black holes

Suazo Campos, Matías Enrique January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Astronomía / En la presente tesis estudio cómo el proceso de fragmentación afecta la formación de las semillas de agujeros negros supermasivos primordiales utilizando simulaciones cosmológicas hidrodinámicas. Éstos se caracterizan por habitar los centros de los cuásares más brillantes observados en épocas muy tempranas del Universo. Debido a las limitaciones observacionales y a la complejidad de las ecuaciones que gobiernan los fenómenos, las simulaciones computacionales resultan ser la mejor forma de entender como estas estructuras se formaron. En este trabajo se realizaron cincuenta simulaciones de baja resolución compuestas sólo de materia oscura con el fin de identificar los halos más prometedores para la formación de semillas masivas. Tres halos fueron elegidos con el fin de ser re-simulados con mayor resolución. El criterio de selección se basó en la rotación del halo y en la historia de fusión con otro halos. Lo anterior se realizó requiriendo que todos tuvieran una masa > 5 × 10⁷ Msun. Una vez escogidos los halos, se procedió a re-simularlos incluyéndose la física del gas, mayor resolución, y un fondo uniforme de radiación UV. Además se agregó un algoritmo para formar partículas sumidero, las cuales representan las estructuras no resueltas por el código. Los tres halos escogidos se re-simularon imponiendo dos condiciones de fondo UV: una de intensidad baja, J21 = 10, y otra de intensidad alta, J21 = 10000. Se observó que dos de las simulaciones bajo la influencia de un fondo de radiación UV de gran intensidad replicaron muy bien el modelo de colapso directo, en el cual el gas del halo colapsa directamente en un objeto muy masivo (> 10⁵ Msun). Estas simulaciones formaron una única partícula sumidero, la que alcanzó masas mayores a 10⁵ Msun hacia el final de la simulación. En ambos casos la tasa de acreción se mantuvo mayor a 0.1 Msun/yr durante todo el tiempo que se mantuvo corriendo la simulación y no se observó fragmentación en estos casos. Por el contrario, en la re-simulación de un halo formado como resultado de una gran cantidad de fusiones, una estructura espiral se formó en los 5 pársec centrales. Dicha estructura se fragmentó formando varias partículas sumidero. La primera que se formó alcanzó una masa cercana a los 10⁵ Msun, mientras que las demás alcanzaron masas intermedias entre 10³ Msun y 5 ×10⁴ Msun. Las simulaciones con un fondo de radiación UV de baja intensidad revelaron en todos los casos fragmentación y formación de varias partículas sumidero. En estos casos las partículas más masivas alcanzaron masas del orden de 10⁴ Msun, la cual es menor que en el caso anterior, pero sigue siendo relevante para la formación de semillas masivas. Como se formaron varias partículas sumidero en todos estos casos, éstas están más propensas a interactuar entre ellas, pudiendo fusionarse intensificando su tasa de acreción, lo cual efectivamente se observó. Finalmente se concluye que la fragmentación no es un impedimento para la formación de semillas masivas, y que la dinámica de los sistemas es relevante para la formación y evolución de las mismas. / FONDECYT regular 1181663 y Centro de Excelencia en Astrofísica y tecnologías afines(PFB-06) que incluye el uso del Cluster Geryon en el centro de Astro-Ingeniería UC. Powered@NLHP: Esta investigación fue parcialmente apoyada por la infraestructura de supercómputo del NLHPC (ECM-02)
2

Extensión de filtro de Kalman de aproximación no lineal para la detección de objetos astronómicos

Pérez García, Paloma Cecilia January 2019 (has links)
Memoria para optar al título de Ingeniera Civil en Computación / El presente trabajo describe el desarrollo de un software en Python destinado a la detección de fenómenos astronómicos transitorios como las supernovas que corresponden a eventos caracterizados por un incremento rápido en su luminosidad y un consecuente decremento lento. El programa se diseñó sobre la base de una rutina ya implementada la cual hace uso de estimaciones generadas por métodos del filtro de Kalman: en su versión clásica (o básica) o su versión de máxima correntropı́a. Debido a que esta rutina presenta complicaciones en la administración de archivos y manejo de parámetros (producido principalmente por hard-coding) se realizó un proceso de refactoring que implica además diseñar y generar una nueva familia de filtros de Kalman basados en el patrón de diseño Strategy. Sobre este código refactorizado se efectuaron pruebas de rendimiento obteniéndose ası́ una mejora en términos de tiempo pero no en la memoria principal utilizada. Por otro lado se realizaron pruebas de detección usando el conjunto de 93 supernovas detectadas por el sondeo de HiTS del año 2015, hallándose mejoras notables en la disminución de falsos positivos ası́ como también un leve aumento en el número de verdaderos positivos al emplear las versiones clásica y de máxima correntropı́a de los filtros refactorizados. Sin embargo no ocurrió lo mismo con el nuevo filtro unscented, que permite emplear funciones no lineales al momento de estimar. Para este filtro se usaron una función cuadrática y otra de exponente 1,5; evaluadas sobre el paso del tiempo desde el inicio de las observaciones (o épocas). Se recomienda continuar estudiando el nuevo filtro de Kalman de aproximación no lineal debido al acotado conjunto de parámetros y funciones utilizado durante la realización de este trabajo.
3

Automatic Classification of variable objects in the hits survey and its applicability for intermediate mass black hole search

Martínez Palomera, Jorge Ignacio January 2018 (has links)
Doctor en Ciencias, Mención Astronomía / El Survey de Transientes a Alta Cadencia (HiTS), fue creado con el propósito de descubrir y estudiar objetos transitorios con escalas de tiempo características entre horas y días, tales como, estrellas pulsantes, eclipsantes, explosivas, y variables estocásticas no estelares. Este survey representa una oportunidad única para explorar observaciones con \textit{entendue} grande y cadencias de observación cercanas a $0.1$ días utilizando nuevas herramientas computacionales para el análisis de grandes volúmenes de datos. Este trabajo sigue un enfoque de \textit{Ciencia de los Datos}: partiendo desde los datos sin procesar hasta el análisis y clasificación de fuentes variables. Hemos compilado un catálogo de $\sim$14 millones de fuentes detectadas y un catálogo de $\sim$2.5 millones de curvas de luz clasificadas según su variabilidad. La profundidad de observación típica de nuestro survey es de $24.2$, $24.3$, $24.1$ y $23.8$ magnitudes en las bandas \textit{u}, \textit{g}, \textit{r} e \textit{i}, respectivamente. En este trabajo presentamos la primera versión de los catálogos. Clasificamos las fuentes puntuales y estáticas extrayendo primero características de sus curvas de luz y luego aplicando un clasificador Random Forest. Para la clasificación utilizamos un conjunto de entrenamiento construido utilizando una combinación de cros referencia con catálogos públicos, inspección visual, transferencia de aprendizaje/aprendizaje activo, y datos aumentados sintéticamente. El modelo de clasificación consiste en varios clasificadores Random Forest organizados en un esquema jerárquico. La precisión del clasificador estimada en el conjunto de prueba es aproximadamente $97\%$. En los datos no etiquetados, $3\,485$ fuentes se clasificaron como variables, de las cuales $1\,321$ se clasificaron como periódicas. Los agujeros negros de masa intermedia (IMBH) ($ M_{BH}$$\sim$$10^{2-5} M_\odot$) son claves para el entendimiento de la formación de agujeros negros (BH) masivos. La población actual conocida de IMBH es pequeña, con algunos cientos de candidatos y solo unos pocos de ellos con una caracterización segura. En este trabajo proponemos una nueva metodología para seleccionar candidatos a IMBH utilizando análisis de variabilidad. Nuestro método de selección se centra en la variabilidad en la región nuclear de galaxias locales. IMBH activos acretando materia a bajas tasas muestran variabilidad a pequeñas amplitudes y en escalas de tiempo de horas. HiTS presenta una oportunidad única para realizar este tipo de búsqueda. Encontramos $\sim$500 galaxias que evidencian este tipo de variabilidad. Estimamos una fracción de ocupación del $4\%$ y una densidad de número superficial de $3$ grados$^{-2}$. Esto representa un aumento en un factor 40 en comparación con búsquedas anteriores basadas en técnicas espectrales. Nuestro método proporciona núcleos variables de galaxias que son candidatos para alojar IMBHs. Sin embargo, no se puede estimar la masa del BH a partir de nuestros datos. Para esto necesitaremos observaciones en rayos X y radio para confirmar la naturaleza AGN de nuestras fuentes y poder estimar su masa utilizando el plano fundamental de BH activos. / Este trabajo ha sido parcialmente financiado por Conicyt, DAS, NLHPC, CMM & MAS
4

Variabilidad de AGN en la era de las grandes Bases de Datos

Sánchez Sáez, Paula Andrea January 2019 (has links)
Tesis para optar al grado de Doctora en Ciencias, Mención Astronomía / Los núcleos activos de galaxias o AGN por su sigla en inglés, se caracterizan por su continuo variable en el tiempo en cada banda de frecuencias en la que se han estudiado (Peterson, 2001). Sin embargo, aún no entendemos por completo los mecanismos que conducen a tales variaciones. En particular, no entendemos en detalle cómo se relaciona la variabilidad de AGN en diferentes longitudes de onda, y cómo las propiedades físicas del motor central están relacionadas con las propiedades de variabilidad del sistema. El principal objetivo de esta tesis es entender de mejor manera la física que hay detrás de la variabilidad de los AGN, y proporcionar una técnica de selección de AGN basada en su variabilidad, para así poder obtener muestras de AGN menos sesgadas, que nos permitan entender de mejor manera como se forman y como evolucionan estos objetos. En primer lugar, se realizó un estudio estadístico de la variabilidad infrarroja cercana (NIR) de AGN seleccionados por rayos X en el campo COSMOS, utilizando datos de UltraVISTA. En este trabajo, estudiamos las diferencias entre las propiedades de variabilidad de distintas poblaciones de AGN. Los resultados de este estudio fueron publicados en el artículo Sánchez et al. (2017), y son presentados en el capítulo 2. En segundo lugar, estudiamos la relación que hay entre las propiedades físicas de los AGN (como la masa del agujero negro central, su luminosidad y su taza de acreción) con las propiedades de variabilidad de estos objetos. En este estudio, encontramos que la amplitud de la variabilidad depende principalmente de la taza de acreción del objeto. Los resultados de este análisis fueron publicados en el artículo Sánchez-Sáez et al. (2018), y son presentados en el capítulo 3. En tercer lugar, realizamos una selección de candidatos a AGN, utilizando análisis de variabilidad y aprendizaje de maquinas. Nuestro método es capaz de seleccionar candidatos a AGN que no son normalmente encontrados por métodos tradicionales, que usan el color de los objetos para la selección. Los resultados de este estudio fueron enviados a la revista Astrophysical Journal Supplement , y son presentados en el capítulo 4. Finalmente, realizamos un mapeo de reverberación del toro de polvo, utilizando datos de UltraVISTA. En este trabajo calculamos el retraso temporal entre curvas de luz asociadas a emisión del disco y del toro de distintos AGN. A partir de nuestros resultados, concluimos que para objetos más distantes (0.5 < z < 1.2) no se observan las mismas correlaciones entre el retraso temporal y la luminosidad de los objetos obtenidas para objetos locales, lo cual se podría explicar por la existencia de granos de polvo más grandes en el toro de polvo de AGN lejanos. Los resultados de este estudio serán incluidos en un artículo que esta en preparación, y son presentados en el capítulo 5. / CONICYT Beca Doctorado Nacional año 2013 grant no. 21130441, y CONICYT-PFB-06
5

Super massive black holes and the Central Region in active galactic nuclei

Mejía Restrepo, Julián Esteban January 2017 (has links)
Doctor en Ciencias, Mención Astronomía / Here I present an in-depth study of the central region of active galactic nuclei oriented to improve current mass estimation methods of distant super massive black holes and to infer the physical properties of the gas in their vicinity. In the first chapter I briefly introduce the basic concepts and present the most relevant discoveries and problematics associated to the central topic of this thesis. Then, in the second chapter, I present new calibrations of the so called single epoch black hole mass estimation method. This method uses emission lines from the broad line region such as the Halpha, Hbeta and MgII low ionization lines, and the CIV high ionization line. The novelty of this work is the usage of simultaneous observations of these emission lines that prevents from possible variability effects. The latter was possible thanks to the observations of 39 quasars a $z\sim1.55$ using the X-Shooter spectrograph of the VLT telescope whose wide spectral coverage allows simultaneous mapping of the aforementioned emission lines. In addition to presenting new calibrations, the results of this study indicate that low ionization lines provide more accurate mass estimations than CIV as it was suggested by previous studies. In the third chapter, I examine the possibility of improving current \CIV -based mass estimates of super-massive black holes by testing the performance of some methods proposed in the literature, including a method proposed in this thesis. All these methods are based on correlations found using small samples of less than 100 objects. In order to quantify the statistical robustness of these methods, in this work I use the Sloan Digital Sky Survey quasar database out of which I extracted a sample of nearly 30000 objects. The results suggest that the methods studied here have a very limited effect on the improvement of \CIV-based mass estimations. Finally, in the fourth chapter, I study the effect of gas distribution of the broad line region on mass estimations. This is possible thanks to the comparison between masses obtained from the single epoch method and those obtained from the fitting the accretion disc spectral energy distribution to standard accretion disk models. The results indicate a strong dependence of the ratio between both mass estimates with the observed width of the broad emission lines.
6

Relativistic effects in large scale structure

Barrera Hinojosa, Cristián Guzmaro January 2018 (has links)
Magíster en Ciencias, Mención Física / En esta tesis estudiamos efectos relativistas en la estructura a gran escala del universo en $\Lambda$CDM y modelos de energía oscura. El término observado de sobredensidad de materia es derivado en el regimen lineal, donde se muestra de forma natural que este se encuentra relacionado no solo a la distribución de materia oscura subyacente, sino que también es sensible a otros efectos tales como el Redshift-space Distortion, el efecto Doppler y a lentes gravitacionales. De la misma forma, se muestra que existen contribuciones provenientes de un conjunto de efectos denominados 'relativistas', el cual consiste en el efecto Shapiro, el efecto Sachs-Wolfe Integrado y términos de potenciales gravitacionales locales. Con lo anterior se calcula una expresión general para el espectro angular de potencias de materia válida para una amplia clases de modelos de energía oscura y teorías de gravedad modificada ya que se basa en una descripción fenomenológica que introduce dos parametros, $Q$ y $\eta$, los que capturan de una forma efectiva el clustering modificado (o constante gravitacional efectiva) y el stress anisotrópico que puede aparecer en algunos modelos cosmológicos alternativos. Como caso particular, en este trabajo consideramos un modelo de fluido efectivo para la energía oscura tipo quintaesencia, el cual es caracterizado por un parámetro de ecuación de estado $w\neq-1$ y una velocidad del sonido $0\leq c^2_s\leq1$. Ambos grados de libertad contribuyen explícitamente a los parametros efectivos $Q$ y $\eta$ así como también a la tasa de crecimiento de estructuras en el universo. Exploramos el espectro angular de potencias en este modelo para cinco valores de $c^2_s$ y comparamos los resultados con respecto a una cosmología $\Lambda$CDM de referencia hasta multipolos $\ell=100$ y redshift $z=2$. En general, las desviaciones de $\Lambda$CDM son mayores a bajo redshift ya que el fluido de energía oscura puede diferenciarse mejor de la constante cosmológica durante el universo tardío. Encontramos que en este modelo las sobredensidades de materia varían hasta un $\sim15\%$ a bajo redshift, mientras que el redshift-space distortion y efecto Doppler pueden desviarse hasta $\sim115\%$ respecto a $\Lambda$CDM para el caso $c^2_s=0$, donde las perturbaciones en el fluido efectivo pueden crecer a cualquier escala. A redshift mayores las diferencias en estos términos permanecen acotadas, aunque para el caso de lentes gravitacionales se obtienen diferencias de hasta $20\%$ en $z=2$ debido a que se trata de un efecto integrado. Para los efectos relativistas encontramos que el retardo Shapiro y los potenciales gravitacionales locales se comportan de manera cualitativamente similar, mostrando diferencias de hasta un $\sim20\%$ a redshift bajo. Finalmente, el efecto Sachs-Wolfe Integrado muestra la mayor influencia del modelo de energía oscura mostrando hasta $\sim 90\%$ de diferencia relativa con respecto a $\Lambda$CDM debido a su capacidad de probar la tasa de crecimiento de estructuras pero también su variación temporal. Además, este efecto se ve potenciado por la tasa de clustering del fluido oscuro y es el único sensible a la posible presencia de viscosidad en el mismo, por lo cual representa una herramienta importante para probar modelos alternativos a $\Lambda$CDM usando surveys de galaxias.
7

Bayesian statistical methods on large scale structure cosmology

Sagredo Briones, Bryan Lester January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Física / En esta tesis se introduce el formalismo de la estadística Bayesiana aplicado a cosmología LCDM y otros modelos de energía oscura, enfocado en los observables de agrupamiento de galaxias y de crecimiento cósmico. Se explora un gran rango de aplicaciones del marco de trabajo Bayesiano. Primero, se exploran las posibilidades de predicción de la estadística Bayesiana con nuestro primer proyecto, el cual consiste en la aplicación del método de Aproximación de Verosimilitudes con Derivadas (DALI por sus siglas en inglés) para mejorar las predicciones de Matriz de Fisher de un experimento de agrupamiento de galaxias tipo LSST. El método contiene una expansión de Taylor hasta el tercer orden a partir del punto de parámetros de confianza, capturando formas de las regiones de confianza que van más allá de las usuales elipses de Fisher en la bibliografía. Además se compara con muestras de Cadenas de Markov Monte Carlo para mostrar la efectividad del método. Luego, realizamos un proyecto acerca de la aplicación del formalismo de la Robustez Interna a una compilación de datos de crecimiento cósmico, el cual es un método Bayesiano que potencialmente puede detectar outliers (datos aislados), errores sistemáticos o nuevas leyes físicas en los datos, considerando la posibilidad de que subconjuntos de los datos sigan diferentes parámetros o modelos (incluyendo de esta manera el aspecto de comparación de modelos básico de la estadística Bayesiana). No se encuentran errores sistemáticos ni outliers en el set de datos, así asegurando su robustez interna. Finalmente, tomamos por completo el campo de comparación de modelos Bayasiana, y lo hacemos via un estudio acerca de diferentes métodos de comparación de modelos cosmológicos. Se comparan varios modelos de energía oscura usando datos crecimiento cósmico y expansión cósmica, y esto se hace utilizando cuatro criterios de comparación: Comparación de evidencias, Criterio de Información Bayesiano, Criterio de Información de Akaike y un método reciente de Figura de Mérito. Luego, se discute acerca de la efectividad y conveniencia de cada uno de ellos. / CONICYT Powered@NLHPC: Esta tesis fue parcialmente apoyada por la intraestructura de supercómputo del NLHPC (ECM-02)
8

Image sequence simulation and deep learning for astronomical object classification

Carrasco Davis, Rodrigo Antonio January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / En esta tesis, se propone un nuevo modelo de clasificación secuencial para objetos astronómicos basado en el modelo de red neuronal convolucional recurrente (RCNN) que utiliza secuencias de imágenes como entradas. Este enfoque evita el cálculo de curvas de luz o imágenes de diferencia. Esta es la primera vez que se usan secuencias de imágenes directamente para la clasificación de objetos variables en astronomía. Otra contribución de este trabajo es el proceso de simulación de imagen. Se simularon secuencias de imágenes sintéticas que toman en cuenta las condiciones instrumentales y de observación, obteniendo una serie de películas de ruido variable, realistas, muestreadas de manera irregular para cada objeto astronómico. El conjunto de datos simulado se utiliza para entrenar el clasificador RCNN. Este enfoque permite generar conjuntos de datos para entrenar y probar el modelo RCNN para diferentes estudios astronómicos y telescopios. Además, el uso de un conjunto de datos simulado es más rápido y más adaptable a diferentes surveys y tareas de clasificación. El objetivo es crear un conjunto de datos simulado cuya distribución sea lo suficientemente cercana al conjunto de datos real, de modo que un ajuste fino sobre el modelo propuesto pueda hacer coincidir las distribuciones y resolver el problema de adaptación del dominio entre el conjunto de datos simulado y el conjunto de datos real. Para probar el clasificador RCNN entrenado con el conjunto de datos sintéticos, se utilizaron datos reales de High Cadence Transient Survey (HiTS), obteniendo un recall promedio del 85% en 5 clases, mejorado a 94% después de realizar un ajuste fino de 1000 iteraciones con 10 muestras reales por clase. Los resultados del modelo RCNN propuesto se compararon con los de un clasificador de bosque aleatorio o random forest de curvas de luz. El RCNN propuesto con ajuste fino tiene un rendimiento similar en el conjunto de datos HiTS en comparación con el clasificador de bosque aleatorio de curva de luz, entrenado en un conjunto de entrenamiento aumentado con 100 copias de 10 muestras reales por clase. El enfoque RCNN presenta varias ventajas en un escenario de clasificación de streaming de alertas astronómicas, como una reducción del preprocesamiento de datos, una evaluación más rápida y una mejora más sencilla del rendimiento utilizando unas pocas muestras de datos reales. Los resultados obtenidos fomentan el uso del método propuesto para los sistemas astronomical alert brokers que procesarán streamings de alertas generados por nuevos telescopios, como el Large Synoptic Survey Telescope (LSST). Se proponen ideas para un clasificador multibanda y un mejor simulador de imágenes en función de las dificultades encontradas en este trabajo.
9

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.

Page generated in 0.0325 seconds