• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 71
  • 67
  • 7
  • Tagged with
  • 231
  • 88
  • 81
  • 76
  • 71
  • 71
  • 67
  • 60
  • 55
  • 55
  • 52
  • 47
  • 46
  • 40
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

El polvo interestelar en la Nube Oscura de Norma

Waldhausen, Silvia January 1987 (has links)
Información extraída de <a href="http://www.iar.unlp.edu.ar/biblio/index.html">http://www.iar.unlp.edu.ar/biblio/index.html</a>
92

Propiedades del gas molecular asociado con estrellas Wolf Rayet de nuestra galaxia

Duronea, Nicolás January 2010 (has links) (PDF)
La observación del material molecular alrededor de estrellas WR es importante para comprender la relación entre el MIE y las estrellas de gran masa. Es por esta razón, sumada a la relativa escasez de trabajos realizados en este tema, que se hace imprescindible incrementar la muestra de este tipo de observaciones. En esta Tesis de Doctorado se propone: - Estudiar la distribución del material molecular en los alrededores de diez estrellas WR galácticas usando la línea (J=1→0) de la molécula de C 12O como trazadora, los cuales fueron obtenidos con el radiotelescopio NANTEN. Se intentará comparar los resultados con los predichos por los modelos y teorías de la interacción de estrellas de gran masa con el MIE, anteriormente descriptos. En los casos en los que sea necesario, se desarrollarán modelos cinemáticos alternativos que permitan explicar los resultados obtenidos. - En base a la posible relación existente entre los intensos vientos generados por las estrellas WR (tanto aisladas como pertenecientes a asociaciones estelares) con el proceso de formación estelar inducida, se estudiará el gas molecular que se encuentra asociado a regiones de formación estelar cercanas a los objetos estelares en cuestión por medio del análisis de sus propiedades físicas, morfológicas y cinemáticas. Se buscarán en las mismas, evidencias que indiquen que la formación estelar propiamente dicha se haya iniciado como causa de la interacción entre el material molecular preexistente y las estrellas cercanas. - En todos los casos, las observaciones de C 12O se complementarán con observaciones en otras frecuencias, obtenidas mediante el acceso a bases de datos disponibles mediante Internet, con el fin de encontrar las contrapartes de las estructuras halladas y realizar un estudio multifrecuencia completo del material interestelar en los alrededores de los objetos seleccionados para su estudio.
93

Distribución del material interestelar a pequeña escala de distancias

Clocchiatti, Alejandro January 1988 (has links)
Información extraída de <a href="http://www.iar.unlp.edu.ar/biblio/index.html">http://www.iar.unlp.edu.ar/biblio/index.html</a>
94

Estudio de una asociación OB distante en la Vía Láctea

Corti, Mariela Alejandra January 2005 (has links) (PDF)
En esta tesis se analizó fotometría CCD en filtros UBV y H&alpha; cubriendo un campo de 30'x30' centrado en Bo7. Con esta fotometría seleccionamos más de 100 estrellas cuyos colores fueran compatibles con estrellas de tipo espectral temprano. Este grupo de estrellas fue analizado espectroscópicamente. El material observacional consistió en espectros digitales obtenidos en CASLEO. Con los datos fotométricos y espectroscópicos se efectuó una Clasificación Espectral. Se generó para ello un Atlas CCD de estándares OB de clasificación espectral observadas con Reosc DS en CASLEO. Se encontraron 63 estrellas OB. Ajustando un perfil gaussiano a cada línea espectral se analizó la Velocidad Radial de cada estrella. Se encontró un sistema binario con espectro del tipo O6.5 cuya solución orbital se determinó. En los espectros de las estrellas tempranas se estudió la Banda Interestelar Difusa 4428A (DIB). Se derivaron las distancias espectrofotométricas individuales de cada estrella.
95

Radiación no-térmica asociada a ondas de choque astrofísicas

Araudo, Anabella T. January 2010 (has links) (PDF)
El objetivo principal de esta tesis es investigar los procesos físicos que dan lugar a emisión no-térmica a altas energías en objetos astrofísicos capaces de acelerar partículas hasta velocidades relativistas. En particular, se ha estudiado la emisión de rayos gamma producida en fuentes cósmicas con diferentes escalas espaciales, desde objetos estelares jóvenes hasta cúmulos de galaxias, pasando por microcuasares y núcleos de galaxias activas. En los dos primeros tipos de objetos se ha modelado la emisión de rayos gamma a partir de los datos obtenidos en frecuencias radio de las fuentes IRAS 16547-4247 y Abell 3376. En los dos últimos, se ha desarrollado un modelo específico de emisión basado en la interacción de inhomogeneidades del medio externo con los jets producidos por el objeto compacto. Específicamente, se han considerado clumps o grumos del viento de la estrella compañera en los microcuasares y nubes de la región de formación de líneas anchas en las galaxias activas, interactuando con los jets de las fuentes. En todos los casos, los modelos desarrollados permiten realizar predicciones contrastables por la nueva generación de instrumentos que operan en altas energías, tales como los satélites Fermi y AGILE y los telescopios Cherenkov HESS, MAGIC y el planeado CTA.
96

Galaxy evolution: A new version of the Besançon Galaxy Model constrained with Tycho data

Czekaj, Maria A. 22 October 2012 (has links)
The understanding of the origin and evolution of the Milky Way is one of the primary goals of the Gaia mission (ESA, launch autumn 2013). In order to study and analyse fully the Gaia data it will be useful to have a Galaxy model able to test various hypothesis and scenarios of galaxy formation and evolution. Kinematic and star count data, together with the physical parameters of the stars - ages and metallicities-, will allow to characterize our galaxy's populations and, from that, the overall Galactic gravitational potential. One of the promising procedures to reach such goal is to optimize the present Population Synthesis models (Robin et al. (2003)) by fitting, through robust statistical techniques, the large and small scale structure and kinematics parameters that best will reproduce Gaia data. This PhD thesis was focused on the optimization of the structure parameters of the Milky Way Galactic disc. We improved the Besançon Galaxy Model and then by comparing the simulations to real data studied the process of Galaxy evolution. The Besançon Galaxy Model is a stellar population synthesis model, built over the last two decades in Besançon (Robin and Crézé(1986); Robin et al. (2003)). Until now the star production process in that model was based on the drawing from the so called Hess diagrams. Each Galaxy population had one such a diagram, which was calculated once given a particular Initial Mass Function (IMF), Star Formation Rate (SFR), evolutionary tracks and age-metallicity relation and since then remained fixed in the model. As that feature was not enabling to test any other scenario of Galaxy evolution, because none of the evolutionary parameters could be modified, it was one of the biggest weaknesses of the model. It has served us as a motivation to dedicate this PhD project to the construction of a new version of the model, which would be able to handle variations of the SFR, IMF, evolutionary tracks, atmosphere models among others. When the evolutionary parameters are changed one must repeat the process of accomplishing the dynamical self-consistency of the model as described in Bienayme et al. (1987). For that we have recalculated the Galactic gravitational potential for all new evolutionary scenarios, which have been tested. The second very important improvement of the model, which is delivered in this thesis, is the implementation of the stellar binarity. That is, the new version of Besançon Galaxy Model presented here is not any more a single star generator, but it considers binary systems maintaining constraints on the local mass density. This is an important change since binaries can account for about 50 % of the total stellar content of the Milky Way. Once the tool was developed we tested several possible combinations of IMF and SFR in the Solar Neighborhood and identified those which best reproduce the Local Luminosity Function and Tycho-2 data. We have accomplished an unprecedented task using the new version of the model, namely we have performed the whole sky comparisons for a magnitude limited sample in order to study the bright stars. The Tycho-2 catalogue turned out to be an ideal sample for that task due to its two important advantages, the homogeneity and completeness until VT ~ 11 mag. Different techniques and strategies were designed and applied when comparing the simulated and the real data. We have looked at small and specific Galactic directions and also performed general comparisons with a global sky coverage. In order to increase the efficiency of numerous simulations and comparisons, a processing pipeline based on C, Java and scripting programming languages has been developed and applied. It is a fully automated, portable and robust tool, allowing to split the work across several computational units. / La misión Gaia (ESA, 2013) revolucionará el conocimiento sobre el origen y la evolución de nuestra Galaxia. Una óptima explotación científica de sus datos requiere disponer de modelos que permitan contrastar hipótesis y escenarios sobre estos procesos de formación. En esta tesis hemos optimizado el modelo de síntesis de poblaciones estelares de Besançon, ampliamente utilizado por la comunidad internacional, centrándonos en la componente del disco delgado. Hemos diseñado, desarrollado, implementado y testeado una nueva estructura de generación de las estrellas que permite encontrar la mejor combinación de función inicial de masa (IMF) y ritmo de formación estelar (SFR) que ajusta a las observaciones. El código permite imponer la autoconsistencia dinámica, recalculando el potencial galáctico para cada nuevo escenario de evolución. También, por primera vez, se generan sistemas binarios bajo esta consistencia dinámica, marcada por la función de luminosidad observada en el entorno solar. Esta, junto con el catálogo Tycho, han sido los dos ingredientes observacionales clave para el ajuste entre modelo y observación. También, por primera vez, hemos conseguido un ajuste aceptable a los recuentos estelares de todo el cielo hasta V=11. Se han evaluado con rigor los efectos en los recuentos estelares derivados del uso de los modelos de atmosfera, de evolución estelar y de extinción interestelar así como de parámetros tan críticos como la masa dinámica del sistema galáctico. El ajuste de estos ingredientes usando el catálogo Tycho nos ha permitido confirmar, de una vez por todas, que la SFR en el disco galáctico no ha sido constante sino decreciente desde los inicios de la formación de esta estructura. En conclusión, esta tesis proporciona un nuevo código, optimizado y flexible en el uso de los ingredientes básicos, en el que se ha realizado una rigurosa evaluación y actualización de los ingredientes que lo componen.
97

Populating cosmological simulations with galaxies using the HOD model

Carretero Palacios, Jorge 01 February 2013 (has links)
El propósito de la tesis es presentar un método con el que construir catálogos de galaxias virtuales poblando simulaciones de N-cuerpos usando recetas basadas en el modelo ``Halo Occupation Distribution (HOD)''. Los catálogos generados cumplen una serie de propiedades observadas de las galaxias, tales como la función de luminosidad, el diagrama color-magnitud y la distribución espacial en función de la luminosidad y del color. Los datos observados provienen del ``Sloan Digital Sky Survey (SDSS)''. Se describe el marco teórico en el que se basa la producción de los catálogos, tanto el ``Halo model'' como el modelo HOD. Nuestros catálogos se construyen poblando con galaxias los catálogos de halos generados a partir de las simulaciones de N-cuerpos de materia oscura ``Marenostrum Institut de Ciències de l'Espai (MICE)''. Caracterizamos el catálogo de halos usado como input calculando la función de masa, la función de correlación a dos puntos y el bias lineal a gran escala de los halos. El modelo HOD proporciona recetas para poblar los halos con galaxias. Este modelo puede ser parametrizado de diversas maneras. En nuestro caso comenzamos generando catálogos de galaxias usando las recetas del modelo HOD propuestas por Skibba & Sheth en 2009. Debido a que el catálogo generado no se ajusta correctamente a las observaciones, investigamos de manera analítica el cálculo de dos parámetros del modelo HOD, Mmin y M1 (asumimos α=1), usando únicamente dos condiciones: la densidad media en número de galaxias y su bias. Luego calculamos los parámetros del modelo HOD que mejor ajustan la distribución espacial de las galaxias en función de la luminosidad mediante la construcción de un grid de catálogos que comprenden un amplio rango de tres parámetros del modelo HOD, Mmin, M1 y α. Para poder ajustar las observaciones es necesaria la introducción de nuevos ingredientes al modelo: la técnica ``SubHalo Abundance Matching (SHAM)'' y un perfil NFW modificado. Se crea un único catálogo que cumple al mismo tiempo la distribución espacial de galaxias para todas las luminosidades y todos los colores usando como input el catálogo de halos calculado del ``snapshot'' a redshift z=0 de la simulación ``MICE Grand Challenge''. El catálogo se construye siguiendo un nuevo algoritmo en el que se introducen algunas modificaciones: ``scatter'' en la relación entre la luminosidad de la galaxia central y la masa del halo, Mh, el parámetro M1 del modelo HOD se modela en función de Mh, y se incluye una tercera componente Gaussiana (en lugar de dos), para describir el diagrama color-magnitud. Se calcula la función de luminosidad y el bias de las galaxias lineal del catálogo generado. También se muestra el efecto que producen las velocidades peculiares de las galaxias en la distribución espacial de las galaxias, y la función de correlación angular en la escala de las oscilaciones acústicas de los bariones. Finalmente y brevemente se describen algunas de las actuales aplicaciones de los catálogos usados en los proyectos PAU y DES, en los que se incluyen características específicas para cada una de las galaxias como son las propiedades morfológicas, la magnitud en 42 filtros estrechos y la deformación provocada por el ``shear'' gravitacional. / This thesis presents a method to build mock galaxy catalogues by populating N-body simulations using prescriptions based upon the halo occupation distribution model (HOD). The catalogues are constructed to follow some global local properties of the galaxy population already observed, such as the luminosity function, the colourmagnitude diagram and the clustering as a function of luminosity and colour. The observed data constraints come from the Sloan Digital Sky Survey (SDSS). The theoretical framework in which the production of the catalogues is based on, the halo model and the HOD, are described. Our mock catalogues are built from halo catalogues extracted from the Marenostrum Institut de Ci`encies de l’Espai Nbody dark matter simulations (MICE). We characterize our input halo catalogues by computing their halo mass function, two-point correlation function and linear large scale halo bias. The HOD provides prescriptions of how galaxies populate haloes. The HOD can be parameterized in several ways. We start by following the HOD recipes given by Skibba & Sheth 2009 to generate galaxy catalogues. Since the luminosity function of the catalogue does not fit observations, we investigate an analytical derivation of two HOD parameters, Mmin and M1 (α is assumed to be 1), by only using two observed constraints: the galaxy number density and bias. Then, a grid of 600 mock galaxy catalogues that covers a wide range of values of the three HOD parameters, Mmin, M1 and α, is generated to obtain the best-fit HOD parameters that match the observed clustering of galaxy luminosity threshold samples. As we cannot match observations we introduce additional ingredients: the SubHalo Abundance Matching (SHAM) and a modified NFW density profile. A unique mock galaxy catalogue that follows at the same time the clustering at all luminosities and colours is produced using the halo catalogue extracted from the snapshot at z=0 of the MICE Grand Challenge run. The catalogue is built by following a new algorithm in which several modifications are introduced: scatter in the halo mass - central luminosity relation, the HOD parameter M1 is set as a function of Mh, and three Gaussian components (instead of only two) are included to describe the colour-magnitude distribution. A derivation of the luminosity function and the linear galaxy bias of the mock catalogue is shown. How galaxy velocity affects the galaxy clustering and an estimation of the angular correlation function at the BAO scale are presented too. Finally, different versions of the catalogue currently used in PAU and DES projects, which include specific characteristics such as shear information or 42 different magnitudes in narrow band filters and also morphological properties for each galaxy, are briefly described.
98

Study of Adaptive Optics Images by means of Multiscalar Transforms

Baena Gallé, Roberto 09 December 2013 (has links)
Adaptive optics (AO) systems are used to increase the spatial resolution achieved by ground-based telescopes, which are limited by the atmospheric motion of air layers above them. Therefore, the real cut-off frequency is extended closer to the theoretical diffraction limit of the telescope thus allowing more high-frequency information from the object to be present in the image. Nevertheless, although the goal of image reconstruction and deconvolution algorithms is basically the same (i.e., to recover a “real” diffracted limit image, free of noise, from the object), and since the correction of AO is not complete (i.e., the effective cut-off frequency achieved by AO is still below the theoretical diffraction limit), the simultaneous use of such deconvolution algorithms over dataset acquired with AO is possible and desirable to further enhance their contrast. On the other hand, multiresolution tools like the wavelet transform (WT) have been historically introduced into multiple deconvolution schemes improving their performance with respect to their non-wavelet counterparts. The ability of such transforms to separate image components depending on their frequency content results in solutions that are generally closer to the real object. On the other hand, AO community generally states that, due to the high variability of AO PSFs is necessary to update the PSF estimate during the reconstruction process. Hence, the use of blind and myopic deconvolution algorithms should be unavoidable and yields to better results than those obtained by the static-PSFs codes. Therefore, being the aforementioned paragraphs the current state-of-art of AO imaging, this thesis yields the following topics/goals: 1. The static-PSF algorithm AMWLE has been applied over binary systems simulated for the 3-m Shane telescope to evaluate the photometric accuracy of the reconstruction. Its performance is compared with the PSF-fitting algorithm StarFinder, commonly used by the AO community, as well as other algorithms like FITSTAR, PDF deconvolution and IDAC. Results shown that AWMLE is able to produce better results than StarFinder and FITSTAR, and very similar results with respect to the rest of codes, especially for high Strehl ratios (SR) and matched PSFs. 2. A new deconvolution algorithm called ACMLE, based on the curvelet transform (CT) and a maximum likelihood estimator (MLE), has been designed for the reconstruction of extended and/or elongated objects. ACMLE has been tested together with AMWLE and blind/myopic codes such as MISTRAL and IDAC over Saturn and galaxy simulated images for the 5-m. Hale telescope. It is shown that the performance in the presence of noise of the multiresolution static-PSF algorithms is better than myopic and blind algorithms, thus showing that the control of noise is as important as the update of the PSF estimate during the reconstruction process. 3. A unidimensional WT has been applied in the spectral deconvolution of integral field spectroscopy (IFS) datacubes for direct imaging of exoplanets with EPICS instrument, which will be installed at the forthcoming 39-m E-ELT telescope. When this approach is compared with the classical non-wavelet one, an improvement of 1 mag from angle separations equal to 73 mas is devised. Furthermore, detection of close-in planets, between 43 and 58 mas also benefit of the application of wavelets. The use of WT allows the APLC chronograph to obtain similar results with respect to the apodizer-only solution, especially with increasing Talbot length, thus showing that WT classify planet frequency components and chromatic aberrations in different scales. Preliminary results for HARMONI spectrograph are also shown. This thesis opens several lines of research that will be addressed in future: - The world of multiresolution transforms is extremely huge and has produced dozens of new mathematical tools. Among many other, it is worthwhile to mention the shearlet transform, which is an extension/improvement of CT, and the waveatom tool, which is intended to classify textures in the image. They should be studied and compared to establish their best performance and their best field of application over AO images. - Blind and myopic algorithms have proved their ability for large mismatches between the “real” PSF that has created the image and the PSF that is used as a first estimate in the reconstruction process. However, their performance in the presence of noise is highly affected. Hence, it is convenient to investigate if it is possible to introduce (and how to do it) multiresolution transforms into these algorithms to improve their behavior. - For the study of IFS datacubes, other father scaling functions with different shapes could be proposed, in particular, it can be considered a “dynamic” scaling function with the ability to modulate its shape according to the low frequency signal to be removed from the spaxel. This could potentially improved the final photometry of the detected faint source. Besides, the design of a dictionary of wavelets, which increase the decomposing resolution across the spaxel, instead of a single dyadic decomposition, can improve the photometric accuracy of detected planets as well as their spectral characterizations, taking full advantage of the information contained in the IFS datacubes.
99

Measuring large scale structure using angular cross-correlations

Asorey Barreiro, Jacobo 27 September 2013 (has links)
En la tesis, proponemos usar el estudio de la agrupación de las galaxias, en particular usando correlaciones cruzadas angulares, para entender la etapa tardía de expansión del Universo y el crecimiento de estructura a gran escala. Los cartografiados extragalácticos miden la posición de las galaxias (que son trazadores del campo de materia oscura) en coordenadas esféricas (z,θ,φ). Muchos análisis de la distribución de galaxias convierten estas coordenadas en distancias, asumiendo una cosmología. Este tipo de análisis requiere rehacer todo el análisis de las medidas para cada modelo cosmológico con el que se quiera comparar. Como alternativa, proponemos seleccionar las galaxias en intervalos radiales, de acuerdo a la medida de sus desplazamientos de longitud de onda al rojo, z, para posteriormente analizar las correlaciones angulares (2D) en cada intervalo. Mediante esta manera de abordar el análisis se pierde información 3D a lo largo de la línea de visión, para escalas menores que la anchura de cada intervalo. Pero evitamos tener que asumir un modelo cosmológico de partida. Hemos visto que un análisis basado en funciones angulares de correlación cruzadas entre diferentes intervalos puede recuperar los modos radiales correspondientes a separaciones dadas por la distancia entre bines. La división en intervalos óptima para recuperar la información 3D viene dada por la escala mínima considerada en el análisis espacial, 2π/kmax, y por la escala dada por el error en el z fotométrico. Los cartografiados extragalácticos fotométricos, como Physics of the Accelerating Universe (PAU) y el Dark Energy Survey (DES), nos permiten acceder a mayores densidades de galaxias y a zonas más profundas del Universo que las alcanzadas en los cartografiados espectroscópicos actuales., pero perdiendo resolución radial. El análisis angular en distintos intervalos es la manera natural de analizar este tipo de cartografiados. Hemos visto que, para este tipo de cartografiados, la determinación del índice de crecimiento de estructura mejora un factor dos si incluimos las correlaciones cruzadas. Además, mostramos que si usamos dos poblaciones de galaxias como trazadores de materia oscura reducimos la varianza cósmica. Usando las correlaciones entre ambas poblaciones en el mismo área, los resultados mejoran un factor cinco. Esto nos permite determinar a un 10% el crecimiento de estructuras para z>1, lo que nos permite complementar los resultados a bajo z obtenidos mediante espectroscopía. La ganancia se magnifica para trazadores que se agrupen de manera muy diferente y con alta densidad. Hemos usado simulaciones de N-cuerpos para incluir efectos no lineales, de manera que podemos activarlos o desactivarlos (como las distorsiones en el espacio de z o las debidas a z fotométricos). Se han construido catálogos a partir de las simulaciones MICE para medir el agrupamiento en la distribución de galaxias, comparándolo con los modelos teóricos de las correlaciones angulares. Hemos hallado una buena correspondencia entre ambos. Los planes futuros pasan por utilizar esta metodología para la estimación de parámetros cosmológicos, particularmente para DES y PAU. / In this thesis we propose to use galaxy clustering, more concretely angular cross-correlations, as a tool to understand the late-time expansion of the Universe and the growth of large-scale structure. Galaxy surveys measure the position of galaxies (what traces the dark-matter field) in spherical coordinates (z,θ,φ). Most galaxy clustering analyses convert these positions to distances assuming a background cosmology. This approach thus requires doing the full data analysis for each background cosmological model one wants to| test. Instead we propose to select galaxies in radial shells, according to their redshifts, and then measure and analyze the angular (2D) correlations in each bin circumventing the model assumption. On the one hand our approach projects and looses 3D information along the line-of-sight for distances smaller than the shell width. On the other hand, it allows a single analysis, as no cosmological model needs to be assumed. Remarkably we find that if we include in the analysis also the angular cross-correlations between different shells, we can recover the radial modes corresponding to the separations between radial bins. We found that the optimal binning to recover 3D information is given by the largest between the minimum scale considered for spatial clustering, 2π/kmax, and the photometric redshift error. Photometric galaxy surveys, such as Physics of the Accelerating Universe (PAU) and Dark Energy Survey (DES), access higher number densities and higher redshifts than current spectroscopic surveys, at the price of loosing radial accuracy. Angular analysis in redshift bins is then the natural framework for such surveys. We found that, for such photometric surveys, the constraints on the growth index of structure improve by a factor two when we include the cross-correlations. In addition, we show that one can use two different galaxy populations to trace dark matter and hence reduce sample variance errors. The cross-correlations of both populations in the same field leads to an overall gain of a factor five. This allows measurements of the growth rate of structure to a 10% error at high redshifts, z > 1, complementing low-z results from spectroscopic surveys. This gain is maximized for high bias difference and high densities. We also worked with N-body simulations to include non-linear gravitational effects and turn them on and off (e.g redshift space distortions or the radial distortions produced by photometric redshifts). We built galaxy survey mocks from the MICE simulations and measure galaxy clustering to compare with our previously mentioned models of angular correlations. We found a good agreement between theory and simulation measurements. In the future, we expect to apply this framework for cosmological parameter estimation, especially focusing on DES and PAU surveys.
100

Measurement of the gamma-ray opacity of the Universe with the MAGIC telescopes

González Muñoz, Adiv 24 April 2015 (has links)
La luz de fondo extragalactica (LFE) es la acumulación de toda la luz producida en la historia del Universo. Las longitudes de onda de esta luz de fondo van desde la banda UV hasta el cercano y lejano infrarrojo. La LFE interactúa con los rayos gamma provenientes de núcleos de galaxias activos (NGA) produciendo pares electrón-positrón. Esto causa que los espectros de energía diferencial de los NGAs observados en la Tierra, en el rango de energía de los rayos gamma, estén modificados por la interacción con la LFE. Este trabajo esta enfocado a las observaciones y el análisis de datos de dos NGAs: Markarian 421 y 1ES 1011+496. Estas dos fuentes fueron observadas en estados de llamaradas extraordinarias por los telescopios MAGIC, proveyendo espectros de buena calidad a muy altas energías. De estas observaciones, el efecto de la LFE en los espectros observados pudo ser medido. Las mediciones fueron realizadas un método de maximización de probabilidad, donde el espectro intrínseco de la fuente es modelado usando una función convexa y suave, modificada por el efecto de la LFE (usando un modelo como plantilla) cuya intensidad es regulada usando un factor de normalización de opacidad. Entonces una exploración es realizada sobre los factores de normalización para encontrar la combinación de parámetros del modelo del espectro intrínseco y el LFE que den la máxima probabilidad de reproducir el espectro observado. Al final, la máxima probabilidad es comparada con la probabilidad de la hipótesis de LFE nula por medio de una prueba de razón de probabilidades. Con este método fue encontrado que con los datos de 1ES 1011+496, el modelo de LFE usado en este trabajo (de Domínguez et al., 2011) escalado por el factor de normalización de opacidad 1.07 (-0.13+0.09)stat (-0.10.+0.7)syst fue preferido sobre la hipótesis de LFE nula con una significancia de 4.6 desviaciones estandar. En el caso de Markarian 421, se encontró que la plantilla de LFE escalada por un factor de normalización de opacidad 0.90 (-0.17+0.11)stat (-0.00+0.29)syst fue preferido sobre la hipótesis de LFE nula con una significancia de 5.8 desviaciones estándar. Análisis adicionales fueron realizados de datos de 1ES 0229+200 y 1ES 0647+250. No se pudieron extraer mediciones del LFE de las observaciones de estas dos fuentes. También en este trabajo se presenta un breve estudio de posibles anomalías en la propagación de los rayos gamma en el medio intergaláctico, causado por la teorética partícula parecida al axion. / The extragalactic background light (EBL) is the collection of all the light produced in the history of the Universe. The wavelength of this background light goes from the UV-optical band to the near- and far-infrared. The EBL interacts with the gamma rays coming from active galactic nuclei (AGN) producing electron-positron pairs. This causes that the differential energy spectra observed at Earth from the AGNs, in the energy range of gamma rays, are modified by the interaction with the EBL. This works is focused in the observations and the data analysis from two AGNs: Markarian 421 and 1ES 1011+496. These two sources were observed in extraordinary flaring states by the MAGIC telescopes, providing good quality expectra at very high energies. From these observations, the effect of the EBL on the observed spectra could be measured. The measurements were performed using a likelihood maximization method, where the intrinsic spectrum of the source is modeled using a smooth convex function, modified by the effect of the EBL (from a model template) whose intensity is regulated using an opacity normalization factor. Then a scan is performed over the normalization factor to find the combination of parameters from the model for the intrinsic spectrum and the EBL that give the maximum likelihood to the observed spectrum. At the end, the maximum likelihood is compared with the likelihood of the null-EBL hypothesis with a likelihood ratio test. With this method it was found that with the data from 1ES 1011+496, the EBL model used in this work (by Dominguez et al. 2011) escaled by an opacity normalization factor of 1.07 (-0.13+0.09)stat (-0.10.+0.7)syst was prefered over the null-EBL hypothesis with a significance of 4.6 standard deviations. In the case of the data from Markarian 421, it was found that the EBL template scaled by the opacity normalization factor of 0.90 (-0.17+0.11)stat (-0.00+0.29)syst was prefered over the null-EBL hypothesis with a significance of 5.8 standard deviations. Additional analyses were performed of data from 1ES 0229+200 and 1ES 0647+250. No EBL measurements could be extracted from the observations of these two sources. Also in this work is presented a brief study of possible anomalies in the propagation of the gamma rays in the intergalactic medium caused by the theoretical axion-like particle.

Page generated in 0.0347 seconds