• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 110
  • 84
  • 2
  • 1
  • 1
  • Tagged with
  • 310
  • 211
  • 147
  • 147
  • 146
  • 145
  • 144
  • 134
  • 71
  • 71
  • 71
  • 71
  • 71
  • 51
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Populating cosmological simulations with galaxies using the HOD model

Carretero Palacios, Jorge 01 February 2013 (has links)
El propósito de la tesis es presentar un método con el que construir catálogos de galaxias virtuales poblando simulaciones de N-cuerpos usando recetas basadas en el modelo ``Halo Occupation Distribution (HOD)''. Los catálogos generados cumplen una serie de propiedades observadas de las galaxias, tales como la función de luminosidad, el diagrama color-magnitud y la distribución espacial en función de la luminosidad y del color. Los datos observados provienen del ``Sloan Digital Sky Survey (SDSS)''. Se describe el marco teórico en el que se basa la producción de los catálogos, tanto el ``Halo model'' como el modelo HOD. Nuestros catálogos se construyen poblando con galaxias los catálogos de halos generados a partir de las simulaciones de N-cuerpos de materia oscura ``Marenostrum Institut de Ciències de l'Espai (MICE)''. Caracterizamos el catálogo de halos usado como input calculando la función de masa, la función de correlación a dos puntos y el bias lineal a gran escala de los halos. El modelo HOD proporciona recetas para poblar los halos con galaxias. Este modelo puede ser parametrizado de diversas maneras. En nuestro caso comenzamos generando catálogos de galaxias usando las recetas del modelo HOD propuestas por Skibba & Sheth en 2009. Debido a que el catálogo generado no se ajusta correctamente a las observaciones, investigamos de manera analítica el cálculo de dos parámetros del modelo HOD, Mmin y M1 (asumimos α=1), usando únicamente dos condiciones: la densidad media en número de galaxias y su bias. Luego calculamos los parámetros del modelo HOD que mejor ajustan la distribución espacial de las galaxias en función de la luminosidad mediante la construcción de un grid de catálogos que comprenden un amplio rango de tres parámetros del modelo HOD, Mmin, M1 y α. Para poder ajustar las observaciones es necesaria la introducción de nuevos ingredientes al modelo: la técnica ``SubHalo Abundance Matching (SHAM)'' y un perfil NFW modificado. Se crea un único catálogo que cumple al mismo tiempo la distribución espacial de galaxias para todas las luminosidades y todos los colores usando como input el catálogo de halos calculado del ``snapshot'' a redshift z=0 de la simulación ``MICE Grand Challenge''. El catálogo se construye siguiendo un nuevo algoritmo en el que se introducen algunas modificaciones: ``scatter'' en la relación entre la luminosidad de la galaxia central y la masa del halo, Mh, el parámetro M1 del modelo HOD se modela en función de Mh, y se incluye una tercera componente Gaussiana (en lugar de dos), para describir el diagrama color-magnitud. Se calcula la función de luminosidad y el bias de las galaxias lineal del catálogo generado. También se muestra el efecto que producen las velocidades peculiares de las galaxias en la distribución espacial de las galaxias, y la función de correlación angular en la escala de las oscilaciones acústicas de los bariones. Finalmente y brevemente se describen algunas de las actuales aplicaciones de los catálogos usados en los proyectos PAU y DES, en los que se incluyen características específicas para cada una de las galaxias como son las propiedades morfológicas, la magnitud en 42 filtros estrechos y la deformación provocada por el ``shear'' gravitacional. / This thesis presents a method to build mock galaxy catalogues by populating N-body simulations using prescriptions based upon the halo occupation distribution model (HOD). The catalogues are constructed to follow some global local properties of the galaxy population already observed, such as the luminosity function, the colourmagnitude diagram and the clustering as a function of luminosity and colour. The observed data constraints come from the Sloan Digital Sky Survey (SDSS). The theoretical framework in which the production of the catalogues is based on, the halo model and the HOD, are described. Our mock catalogues are built from halo catalogues extracted from the Marenostrum Institut de Ci`encies de l’Espai Nbody dark matter simulations (MICE). We characterize our input halo catalogues by computing their halo mass function, two-point correlation function and linear large scale halo bias. The HOD provides prescriptions of how galaxies populate haloes. The HOD can be parameterized in several ways. We start by following the HOD recipes given by Skibba & Sheth 2009 to generate galaxy catalogues. Since the luminosity function of the catalogue does not fit observations, we investigate an analytical derivation of two HOD parameters, Mmin and M1 (α is assumed to be 1), by only using two observed constraints: the galaxy number density and bias. Then, a grid of 600 mock galaxy catalogues that covers a wide range of values of the three HOD parameters, Mmin, M1 and α, is generated to obtain the best-fit HOD parameters that match the observed clustering of galaxy luminosity threshold samples. As we cannot match observations we introduce additional ingredients: the SubHalo Abundance Matching (SHAM) and a modified NFW density profile. A unique mock galaxy catalogue that follows at the same time the clustering at all luminosities and colours is produced using the halo catalogue extracted from the snapshot at z=0 of the MICE Grand Challenge run. The catalogue is built by following a new algorithm in which several modifications are introduced: scatter in the halo mass - central luminosity relation, the HOD parameter M1 is set as a function of Mh, and three Gaussian components (instead of only two) are included to describe the colour-magnitude distribution. A derivation of the luminosity function and the linear galaxy bias of the mock catalogue is shown. How galaxy velocity affects the galaxy clustering and an estimation of the angular correlation function at the BAO scale are presented too. Finally, different versions of the catalogue currently used in PAU and DES projects, which include specific characteristics such as shear information or 42 different magnitudes in narrow band filters and also morphological properties for each galaxy, are briefly described.
82

Study of Adaptive Optics Images by means of Multiscalar Transforms

Baena Gallé, Roberto 09 December 2013 (has links)
Adaptive optics (AO) systems are used to increase the spatial resolution achieved by ground-based telescopes, which are limited by the atmospheric motion of air layers above them. Therefore, the real cut-off frequency is extended closer to the theoretical diffraction limit of the telescope thus allowing more high-frequency information from the object to be present in the image. Nevertheless, although the goal of image reconstruction and deconvolution algorithms is basically the same (i.e., to recover a “real” diffracted limit image, free of noise, from the object), and since the correction of AO is not complete (i.e., the effective cut-off frequency achieved by AO is still below the theoretical diffraction limit), the simultaneous use of such deconvolution algorithms over dataset acquired with AO is possible and desirable to further enhance their contrast. On the other hand, multiresolution tools like the wavelet transform (WT) have been historically introduced into multiple deconvolution schemes improving their performance with respect to their non-wavelet counterparts. The ability of such transforms to separate image components depending on their frequency content results in solutions that are generally closer to the real object. On the other hand, AO community generally states that, due to the high variability of AO PSFs is necessary to update the PSF estimate during the reconstruction process. Hence, the use of blind and myopic deconvolution algorithms should be unavoidable and yields to better results than those obtained by the static-PSFs codes. Therefore, being the aforementioned paragraphs the current state-of-art of AO imaging, this thesis yields the following topics/goals: 1. The static-PSF algorithm AMWLE has been applied over binary systems simulated for the 3-m Shane telescope to evaluate the photometric accuracy of the reconstruction. Its performance is compared with the PSF-fitting algorithm StarFinder, commonly used by the AO community, as well as other algorithms like FITSTAR, PDF deconvolution and IDAC. Results shown that AWMLE is able to produce better results than StarFinder and FITSTAR, and very similar results with respect to the rest of codes, especially for high Strehl ratios (SR) and matched PSFs. 2. A new deconvolution algorithm called ACMLE, based on the curvelet transform (CT) and a maximum likelihood estimator (MLE), has been designed for the reconstruction of extended and/or elongated objects. ACMLE has been tested together with AMWLE and blind/myopic codes such as MISTRAL and IDAC over Saturn and galaxy simulated images for the 5-m. Hale telescope. It is shown that the performance in the presence of noise of the multiresolution static-PSF algorithms is better than myopic and blind algorithms, thus showing that the control of noise is as important as the update of the PSF estimate during the reconstruction process. 3. A unidimensional WT has been applied in the spectral deconvolution of integral field spectroscopy (IFS) datacubes for direct imaging of exoplanets with EPICS instrument, which will be installed at the forthcoming 39-m E-ELT telescope. When this approach is compared with the classical non-wavelet one, an improvement of 1 mag from angle separations equal to 73 mas is devised. Furthermore, detection of close-in planets, between 43 and 58 mas also benefit of the application of wavelets. The use of WT allows the APLC chronograph to obtain similar results with respect to the apodizer-only solution, especially with increasing Talbot length, thus showing that WT classify planet frequency components and chromatic aberrations in different scales. Preliminary results for HARMONI spectrograph are also shown. This thesis opens several lines of research that will be addressed in future: - The world of multiresolution transforms is extremely huge and has produced dozens of new mathematical tools. Among many other, it is worthwhile to mention the shearlet transform, which is an extension/improvement of CT, and the waveatom tool, which is intended to classify textures in the image. They should be studied and compared to establish their best performance and their best field of application over AO images. - Blind and myopic algorithms have proved their ability for large mismatches between the “real” PSF that has created the image and the PSF that is used as a first estimate in the reconstruction process. However, their performance in the presence of noise is highly affected. Hence, it is convenient to investigate if it is possible to introduce (and how to do it) multiresolution transforms into these algorithms to improve their behavior. - For the study of IFS datacubes, other father scaling functions with different shapes could be proposed, in particular, it can be considered a “dynamic” scaling function with the ability to modulate its shape according to the low frequency signal to be removed from the spaxel. This could potentially improved the final photometry of the detected faint source. Besides, the design of a dictionary of wavelets, which increase the decomposing resolution across the spaxel, instead of a single dyadic decomposition, can improve the photometric accuracy of detected planets as well as their spectral characterizations, taking full advantage of the information contained in the IFS datacubes.
83

Measuring large scale structure using angular cross-correlations

Asorey Barreiro, Jacobo 27 September 2013 (has links)
En la tesis, proponemos usar el estudio de la agrupación de las galaxias, en particular usando correlaciones cruzadas angulares, para entender la etapa tardía de expansión del Universo y el crecimiento de estructura a gran escala. Los cartografiados extragalácticos miden la posición de las galaxias (que son trazadores del campo de materia oscura) en coordenadas esféricas (z,θ,φ). Muchos análisis de la distribución de galaxias convierten estas coordenadas en distancias, asumiendo una cosmología. Este tipo de análisis requiere rehacer todo el análisis de las medidas para cada modelo cosmológico con el que se quiera comparar. Como alternativa, proponemos seleccionar las galaxias en intervalos radiales, de acuerdo a la medida de sus desplazamientos de longitud de onda al rojo, z, para posteriormente analizar las correlaciones angulares (2D) en cada intervalo. Mediante esta manera de abordar el análisis se pierde información 3D a lo largo de la línea de visión, para escalas menores que la anchura de cada intervalo. Pero evitamos tener que asumir un modelo cosmológico de partida. Hemos visto que un análisis basado en funciones angulares de correlación cruzadas entre diferentes intervalos puede recuperar los modos radiales correspondientes a separaciones dadas por la distancia entre bines. La división en intervalos óptima para recuperar la información 3D viene dada por la escala mínima considerada en el análisis espacial, 2π/kmax, y por la escala dada por el error en el z fotométrico. Los cartografiados extragalácticos fotométricos, como Physics of the Accelerating Universe (PAU) y el Dark Energy Survey (DES), nos permiten acceder a mayores densidades de galaxias y a zonas más profundas del Universo que las alcanzadas en los cartografiados espectroscópicos actuales., pero perdiendo resolución radial. El análisis angular en distintos intervalos es la manera natural de analizar este tipo de cartografiados. Hemos visto que, para este tipo de cartografiados, la determinación del índice de crecimiento de estructura mejora un factor dos si incluimos las correlaciones cruzadas. Además, mostramos que si usamos dos poblaciones de galaxias como trazadores de materia oscura reducimos la varianza cósmica. Usando las correlaciones entre ambas poblaciones en el mismo área, los resultados mejoran un factor cinco. Esto nos permite determinar a un 10% el crecimiento de estructuras para z>1, lo que nos permite complementar los resultados a bajo z obtenidos mediante espectroscopía. La ganancia se magnifica para trazadores que se agrupen de manera muy diferente y con alta densidad. Hemos usado simulaciones de N-cuerpos para incluir efectos no lineales, de manera que podemos activarlos o desactivarlos (como las distorsiones en el espacio de z o las debidas a z fotométricos). Se han construido catálogos a partir de las simulaciones MICE para medir el agrupamiento en la distribución de galaxias, comparándolo con los modelos teóricos de las correlaciones angulares. Hemos hallado una buena correspondencia entre ambos. Los planes futuros pasan por utilizar esta metodología para la estimación de parámetros cosmológicos, particularmente para DES y PAU. / In this thesis we propose to use galaxy clustering, more concretely angular cross-correlations, as a tool to understand the late-time expansion of the Universe and the growth of large-scale structure. Galaxy surveys measure the position of galaxies (what traces the dark-matter field) in spherical coordinates (z,θ,φ). Most galaxy clustering analyses convert these positions to distances assuming a background cosmology. This approach thus requires doing the full data analysis for each background cosmological model one wants to| test. Instead we propose to select galaxies in radial shells, according to their redshifts, and then measure and analyze the angular (2D) correlations in each bin circumventing the model assumption. On the one hand our approach projects and looses 3D information along the line-of-sight for distances smaller than the shell width. On the other hand, it allows a single analysis, as no cosmological model needs to be assumed. Remarkably we find that if we include in the analysis also the angular cross-correlations between different shells, we can recover the radial modes corresponding to the separations between radial bins. We found that the optimal binning to recover 3D information is given by the largest between the minimum scale considered for spatial clustering, 2π/kmax, and the photometric redshift error. Photometric galaxy surveys, such as Physics of the Accelerating Universe (PAU) and Dark Energy Survey (DES), access higher number densities and higher redshifts than current spectroscopic surveys, at the price of loosing radial accuracy. Angular analysis in redshift bins is then the natural framework for such surveys. We found that, for such photometric surveys, the constraints on the growth index of structure improve by a factor two when we include the cross-correlations. In addition, we show that one can use two different galaxy populations to trace dark matter and hence reduce sample variance errors. The cross-correlations of both populations in the same field leads to an overall gain of a factor five. This allows measurements of the growth rate of structure to a 10% error at high redshifts, z > 1, complementing low-z results from spectroscopic surveys. This gain is maximized for high bias difference and high densities. We also worked with N-body simulations to include non-linear gravitational effects and turn them on and off (e.g redshift space distortions or the radial distortions produced by photometric redshifts). We built galaxy survey mocks from the MICE simulations and measure galaxy clustering to compare with our previously mentioned models of angular correlations. We found a good agreement between theory and simulation measurements. In the future, we expect to apply this framework for cosmological parameter estimation, especially focusing on DES and PAU surveys.
84

Measurement of the gamma-ray opacity of the Universe with the MAGIC telescopes

González Muñoz, Adiv 24 April 2015 (has links)
La luz de fondo extragalactica (LFE) es la acumulación de toda la luz producida en la historia del Universo. Las longitudes de onda de esta luz de fondo van desde la banda UV hasta el cercano y lejano infrarrojo. La LFE interactúa con los rayos gamma provenientes de núcleos de galaxias activos (NGA) produciendo pares electrón-positrón. Esto causa que los espectros de energía diferencial de los NGAs observados en la Tierra, en el rango de energía de los rayos gamma, estén modificados por la interacción con la LFE. Este trabajo esta enfocado a las observaciones y el análisis de datos de dos NGAs: Markarian 421 y 1ES 1011+496. Estas dos fuentes fueron observadas en estados de llamaradas extraordinarias por los telescopios MAGIC, proveyendo espectros de buena calidad a muy altas energías. De estas observaciones, el efecto de la LFE en los espectros observados pudo ser medido. Las mediciones fueron realizadas un método de maximización de probabilidad, donde el espectro intrínseco de la fuente es modelado usando una función convexa y suave, modificada por el efecto de la LFE (usando un modelo como plantilla) cuya intensidad es regulada usando un factor de normalización de opacidad. Entonces una exploración es realizada sobre los factores de normalización para encontrar la combinación de parámetros del modelo del espectro intrínseco y el LFE que den la máxima probabilidad de reproducir el espectro observado. Al final, la máxima probabilidad es comparada con la probabilidad de la hipótesis de LFE nula por medio de una prueba de razón de probabilidades. Con este método fue encontrado que con los datos de 1ES 1011+496, el modelo de LFE usado en este trabajo (de Domínguez et al., 2011) escalado por el factor de normalización de opacidad 1.07 (-0.13+0.09)stat (-0.10.+0.7)syst fue preferido sobre la hipótesis de LFE nula con una significancia de 4.6 desviaciones estandar. En el caso de Markarian 421, se encontró que la plantilla de LFE escalada por un factor de normalización de opacidad 0.90 (-0.17+0.11)stat (-0.00+0.29)syst fue preferido sobre la hipótesis de LFE nula con una significancia de 5.8 desviaciones estándar. Análisis adicionales fueron realizados de datos de 1ES 0229+200 y 1ES 0647+250. No se pudieron extraer mediciones del LFE de las observaciones de estas dos fuentes. También en este trabajo se presenta un breve estudio de posibles anomalías en la propagación de los rayos gamma en el medio intergaláctico, causado por la teorética partícula parecida al axion. / The extragalactic background light (EBL) is the collection of all the light produced in the history of the Universe. The wavelength of this background light goes from the UV-optical band to the near- and far-infrared. The EBL interacts with the gamma rays coming from active galactic nuclei (AGN) producing electron-positron pairs. This causes that the differential energy spectra observed at Earth from the AGNs, in the energy range of gamma rays, are modified by the interaction with the EBL. This works is focused in the observations and the data analysis from two AGNs: Markarian 421 and 1ES 1011+496. These two sources were observed in extraordinary flaring states by the MAGIC telescopes, providing good quality expectra at very high energies. From these observations, the effect of the EBL on the observed spectra could be measured. The measurements were performed using a likelihood maximization method, where the intrinsic spectrum of the source is modeled using a smooth convex function, modified by the effect of the EBL (from a model template) whose intensity is regulated using an opacity normalization factor. Then a scan is performed over the normalization factor to find the combination of parameters from the model for the intrinsic spectrum and the EBL that give the maximum likelihood to the observed spectrum. At the end, the maximum likelihood is compared with the likelihood of the null-EBL hypothesis with a likelihood ratio test. With this method it was found that with the data from 1ES 1011+496, the EBL model used in this work (by Dominguez et al. 2011) escaled by an opacity normalization factor of 1.07 (-0.13+0.09)stat (-0.10.+0.7)syst was prefered over the null-EBL hypothesis with a significance of 4.6 standard deviations. In the case of the data from Markarian 421, it was found that the EBL template scaled by the opacity normalization factor of 0.90 (-0.17+0.11)stat (-0.00+0.29)syst was prefered over the null-EBL hypothesis with a significance of 5.8 standard deviations. Additional analyses were performed of data from 1ES 0229+200 and 1ES 0647+250. No EBL measurements could be extracted from the observations of these two sources. Also in this work is presented a brief study of possible anomalies in the propagation of the gamma rays in the intergalactic medium caused by the theoretical axion-like particle.
85

On the characterisation of the Galactic warp in the Gaia era

Abedi, Hoda 27 February 2015 (has links)
We explore the possibility of detecting and characterising the warp of the stellar disc of our Galaxy using synthetic Gaia data and two available proper motion catalogues namely UCAC4 and PPMXL. We develop a new kinematic model for the galactic warp. With Gaia, the availability of proper motions and, for the brightest stars radial velocities, adds a new dimension to this study. A family of Great Circle Cell Counts (GC3) methods is used. They are ideally suited to find the tilt and twist of a collection of rings, which allow us to detect and measure the warp parameters. To test them, we use random realisations of test particles which evolve in a realistic Galactic potential warped adiabatically to various final configurations. In some cases a twist is introduced additionally. The Gaia selection function, its errors model and a realistic 3D extinction map are applied to mimic three tracer populations: OB, A and Red Clump stars. We show how the use of kinematics improves the accuracy in the recovery of the warp parameters. The OB stars are demonstrated to be the best tracers determining the tilt angle with accuracy better than ∼ 0.5 up to galactocentric distance of ∼ 16 kpc. Using data with good astrometric quality, the same accuracy is obtained for A type stars up to ∼ 13 kpc and for Red Clump up to the expected stellar cut-off. Using OB stars the twist angle is recovered to within < 3◦ for all distances. In this work we have developed a first and simplified kinematic model for our Galactic warp. The simplicity of the model has allowed us to evaluate the efficacy and limitations of the use of Gaia data to characterise the warp. These limitations have been fully explored and quantified. From the work done so far, we expect that the Gaia database, together with the methods presented here, will be a very powerful combination to characterise the warp of the stellar disc of our Galaxy. Moreover, We introduce LonKin methods that help us detect the kinematic signature of the warp in the vertical motions of stars as a function of galactic longitude. Applying this method to the UCAC4 proper motions, we do not obtain a similar trend as the one we expect from our warp model. We explore a possible source of this discrepancy in terms of systematics caused by a residual spin of the reference frame with respect to the extra- galactic inertial one. We also look into a deeper proper motion survey namely the PPMXL. The effect of systematics in this catalogue was reduced using hundreds of thousand quasars present in this survey. An analytical fit to the vertical velocity trend of red clump stars suggests a vertical oscillation in the southern warp with a rather high frequency that tends to decrease the amplitude of the warp. We analysed this trend in the context of our warp model and an abrupt decrease of the warp’s amplitude in a very short time of about one hundred Myr could explain this trend. / En aquesta tesi volem avaluar la capacitat de diversos mètodes estadístics de identificar i caracteritzar la curvatura del disc estel·lar de la Galàxia en la era de Gaia. Per a portar a terme aquests objectius hem desenvolupat expressions analítiques pel camp de forces d’un potencial tipus Miyamoto-Nagai de disc corbat. Partint del potencial galàctic axisimètric de Allen i Santillan (1991) procedim a distorsionar el potencial d’acord amb dos models diferents de curvatura: 1) un model amb la línia de nodes recta i 2) un model amb que presenta una torsió a mesura que augmenta el radi galactocèntric. Hem generat diversos catàlegs simulats de partícules test on hem anat corbant el potencial del disc bé adiabàticament o impulsiva i als que hem aplicat les limitacions observacionals de Gaia i els models d'error astromètrics esperats. A continuació hem utilitzat mètodes estadístics anomenats Great Circle Cell Counts (GC3) i els hem aplicat a mostres d’estrelles per les quals disposem de la informació en l’espai sis dimensional de posicions i velocitats o només informació en posició. A més, hem introduït d'altres mètodes que analitzen directament la tendència del moviment vertical mig de les estrelles en funció de la longitud galàctica. Demostrem que podem recuperar bé els paràmetres de la mostra d’estrelles OB amb bons paràmetres astromètrics a la que hem imposat una inclinació i una torsió al potencial donada. Els valors es recuperen amb un error inferior 3 graus per a totes les distàncies. És important esmentar que en tots els treballs amb els mètodes GC3 sempre hem utilitzat les paral·laxis trigonomètriques (mai les distàncies). També hem buscat la traça cinemàtica de la curvatura del disc en els catàlegs de moviments propis actualment disponibles, UCAC4 i PPMXL. Constatem la necessitat de conèixer amb bona precisió la rotació residual del sistema de referència respecte al sistema inercial, així com qualsevol altre efecte sistemàtic en els moviments propis. Els nostres resultats amb el catàleg PPMXL mostren que un decreixement impulsiu de l'amplitud de la curvatura reprodueix qualitativament la traça en la velocitat vertical que mostren les dades. En conclusió, aquest treball ens ha permès quantificar les capacitats de Gaia per a caracteritzar la geometria i la dinàmica de la curvatura del disc galàctic.
86

Neurocirugía Geriátrica: análisis de la evolución de la patología neuroquirúrgica en el paciente mayor de 70 años en la provincia de Castellón durante los últimos 10 años

González Bonet, Luis Germán 06 March 2015 (has links)
Introducción La Organización Mundial de la Salud (OMS) en sus últimas recomendaciones sobre el envejecimiento de la población mundial avisa que desde 1980 se ha duplicado el número de personas con más de 60 años y que esta cifra alcanzará los 2000 millones de personas para el 2050, cuadruplicándose el número de persona mayores 80 años. Esa misma Organización recalca la importancia de preparar a los proveedores sanitarios y a las sociedades generales y científicas para este hecho (1). Existen artículos aislados dentro de la Neurocirugía que hablan de la edad como factor de riesgo independiente para determinadas patologías como el traumatismo craneoencefálico (2) pero, en nuestro idioma, no existen artículos que recojan cómo afecta dicho envejecimiento en una población concreta a una especialidad médica como la Neurocirugía (3,4). Nos proponemos, por tanto, analizar el efecto del envejecimiento sobre la Neurocirugía en factores como la mortalidad, la morbilidad o incluso la estancia media. Así mismo, mostramos el beneficio del manejo multidisciplinar de estos pacientes. Metodología Recogemos datos de los últimos 11 años en nuestro medio, concretamente la provincia de Castellón, con una población cercana a las 600.000 personas. Se recoge, analiza y compara, concretamente, la población mayor o igual a 70 años atendida tanto en el Servicio de Neurocirugía como en el servicio de Cuidados Intensivos (UCI) del Hospital General de Castellón, con patología neuroquirúrgica y entre dos periodos: 1999-2000 y 2010-2011. Se estudian las siguientes variables: edad, tipo de patología, indicación quirúrgica, estancia, mortalidad, índice de comorbilidad de Charlson, Karnofsky de ingreso y de alta, Glasgow de ingreso y alta, readmisiones, reingresos y curvas de supervivencia a un año. Se realiza además un análisis tanto bivariante como multivariante para la variables mencionadas. Resultados Se atendieron aproximadamente el mismo número de pacientes con patología neuroquirúrgica en los dos periodos: 409 en el primer periodo y 413 en el segundo. Sin embargo, el número de pacientes mayores o iguales a 70 años fue de 80 pacientes en el primer periodo (un quinto del total aproximadamente) y de 142 en el segundo (un tercio del total aproximadamente), lo que supone un incremento del 77.5%. Las variables que en las que se obtuvieron diferencias estadísticamente significativas fueron el índice de comorbilidad de Charlson, el Glasgow al ingreso, la estancia media así como las readmisiones y los reingresos. Concretamente, el índice de comorbilidad y el Glasgow de ingreso fueron peores en el segundo periodo y, sin embargo, la estancia media fue menor en ese periodo aunque es cierto que a costa de un mayor número de readmisiones y reingresos. Tras los estudios multivariantes se observó que las readmisiones y reingresos no fueron dependientes del alta precoz sino de la comorbilidad de los pacientes. No se observaron diferencias entre los dos periodos en cuanto a la mortalidad ni durante el ingreso (con una mortalidad de entre el 10% y el 15%), ni durante el primer año de seguimiento tras realizar la respectiva curva de supervivencia (observando una mortalidad al año de entre el 22,5% y el 25%). Conclusión principal El autor de este estudio concluye que en Neurocirugía se observa un aumento muy considerable del paciente atendido con una edad mayor de 70 años en la actualidad pero, aunque también la comorbilidad de estos pacientes es mayor al ingreso, con la ayuda multidisciplinar de un Internista, Geriatra o incluso con el apoyo de una "extensión de la UCI" , la morbilidad y la mortalidad no varían e incluso se puede disminuir la estancia hospitalaria, lo que redunda en un menor gasto sanitario. Los resultados de este estudio apoyan la elaboración de un grupo de trabajo o similar dedicado a la Neurocirugía Geriátrica. Bibliografía 1. Organización Mundial de la Salud. "Envejecimiento y ciclo de la vida" ; 2012 [actualizado noviembre 2013, acceso 4 de abril 2014]. Disponible en: http://www.who.int/ageing/es/. 2. McIntyre A, Mehta S, Aubut J, Dijkers M, Teasell RW. Mortality among older adults after a traumatic brain injury: a meta-analysis. Brain Inj. 2013;27(1):31-40. 3. Chibbaro S, Di Rocco F, Makiese O, Mirone G, Marsella M, Lukaszewicz AC, Vicaut E, Turner B, Hamdi S, Spiriev T, Di Emidio P, Pirracchio R, Payen D, George B, Bresson D. Neurosurgery and elderly: analysis through the years. Neurosurg Rev. 2010; 34(2):229-234. 4. Maurice-Williams RS, Kitchen N. The Scope of Neurosurgery for elderly people. Age and Ageing. 1993; 22:337-342.
87

Limits to the Violation of Lorentz Invariance using the Emission of the Crab Pulsar at TeV Energies Discovered with Archival Data from the MAGIC TelescopesLimits to the Violation of Lorentz Invariance using the Emission of the Crab Pulsar at TeV Energies Discovered with Archival Data from the MAGIC TelescopesLimits to the Violation of Lorentz Invariance using the Emission of the Crab Pulsar at TeV Energies Discovered with Archival Data from the MAGIC Telescopes

Garrido Terrats, Daniel 11 June 2015 (has links)
No description available.
88

Very-high-energy -ray observations of pulsar wind nebulae and cataclysmic variable stars with MAGIC and development of trigger systems for IACTs

López Coto, Rubén 02 July 2015 (has links)
La historia de la astronomía es tan antigua como alcanzan nuestros registros. Todas las civilizaciones han estado interesadas en el estudio del cielo nocturno, sus objetos y fenómenos. Estas observaciones se realizaron a simple vista hasta el comienzo del siglo XVII, cuando Galileo Galilei empezó a usar un instrumento desarrollado recientemente llamado telescopio. Desde entonces, el rango de longitudes de onda accesible ha ido creciendo, con una explosión en el siglo XX gracias al desarrollo de instrumentos para observar los diferentes rangos: antenas (radio y submilimétrico), telescopios (óptico e infrarrojo) y satélites (ultravioleta, rayos X y rayos gamma de baja energía). Las últimas longitudes de onda del espectro electromagntico a las que se han accedido han sido los rayos gamma de muy alta energía. En este rango, los flujos son tan bajos que no pueden ser observados por instrumentos espaciales, cuyas áreas de colcción típicas son del orden de O(1) m2. Para detectar esta radiación, usamos la conocida como “imaging atmospheric Cherenkov technique”, basada en la detección de los flashes de luz Cherenkov que los rayos gamma de muy alta energía producen cuando interaccionan con la atmósfera. Este campo es muy joven, con la primera fuente descubierta en 1989 por el pionero telescopio Whipple. Es muy dinámico, con más de 150 fuentes detectadas hasta la fecha, la mayoría de ellas por MAGIC, HESS y VERITAS, que forman la generación actual de estos instrumentos. Finalmente, el campo es también muy prometedor, con la preparación de la siguiente generación de telescopios de este tipo: CTA, una matriz de telescopios que se espera completar en 2020. El trabajo presentado en esta tesis comprende todos los esfuerzos que he realizado para hacer que la astronomía de rayos gammas usando telescopios Cherenkov avance. La Parte I de la tesis es una introducción al universo no térmico, la técnica de “imaging atmospheric Cherenkov” y los IACTs MAGIC and CTA. La Parte II comprende todo el trabajo técnico realizado para conseguir bajar el umbral de energía de los IACTs. Esta parte incluye la simulación, caracterización y test del sistema de trigger analógico dise˜nado para alcanzar el umbral de energía más bajo posible con los LSTs de CTA. Junto a este trabajo, se ha buscado mejorar el sistema de trigger del telescopio MAGIC simulando, testando y poniendo en marcha un nuevo concepto de sistema de trigger estéreo para MAGIC . Este nuevo sistema, que usa la información de la posición de las cascadas en cada una de las cámaras de MAGIC para eliminar ruido, se denomina “Topo-trigger”. La parte científica de la tesis trata de fuentes galácticas observadas con los telescopiosMAGIC En la Parte III hablo del análisis de la emisión de rayos gamma de muy alta energía de pleriones: El descubrimiento de emisión de rayos gamma de muy alta energía del desconcertante plerión 3C 58, probable remanente de la SN 1181 AD y el plerión más débil detectado a estas energías hasta la fecha; la caracterización de la cola de emisión a las más altas energías detectadas desde la nebulosa del Cangrejo observándola a los más altos ángulos zenitales posibles; y el estudio de una componente adicional debido al efecto Compton inverso en los estallidos de rayos gamma reportados por el satélite Fermi-LAT en el régimen de sincrotrón. La Parte IV incluye la búsquedas de rayos gamma de muy alta energía de estrellas variables cataclísmicas. En un contexto multibanda, estudiamos la naturaleza de la emisión de rayos gamma de alta energía previamente declarada de la variable cataclísmica AE Aqr. También realizamos observaciones de novas y una nova enana para desvelar los mecanismos de aceleración que tienen lugar en este tipo de objetos y descubrir una componente hadrónica putativa de la emisión de rayos gamma de baja energía. Un capítulo de conclusiones resume todo el trabajo realizado y los prospectos relacionados con los temas tratados en esta tesis. / The history of astronomy is as ancient as the reach of our written records. All the human civilizations have been interested in the study and interpretation of the night sky and its objects and phenomena. These observations were performed with the naked eye until the beginning of the 17th century, when Galileo Galilei started to use an instrument recently developed called telescope. Since then, the range of accessible wavelengths has been increasing, with a burst in the 20th century with the developing of instruments to observe them: antennas (radio and submillimeter), telescopes (optical, IR) and satellites (UV, X-rays and soft gamma rays). The last wavelength range accessed was the Very-High-Energy (VHE) gamma rays. At this range fluxes are so low that it is not possible to use space-based instruments with typical collection areas of O(1) m2. We must resort to the imaging atmospheric Cherenkov technique, which is based on the detection of the flashes of Cherenkov light that VHE gamma rays produce when they interact with the Earth’s atmosphere. The field is very young, with the first source discovered in 1989 by the pioneering Whipple telescope. It is very dynamic with more than 150 sources detected to date, most of them by MAGIC, HESS and VERITAS, that make up the current generation of instruments. Finally, the field is also very promising, with the preparation of a next generation of imaging atmospheric Cherenkov telescopes: CTA, that is expected to start full operation in 2020. The work presented in this thesis comprises my e orts to take the ground-based -ray astronomy one step forward. Part I of the thesis is an introduction to the nonthermal universe, the imaging atmospheric Cherenkov technique and the Imaging Atmospheric Cherenkov Telescopes (IACTs) MAGIC and CTA. Part II deals with several ways to reduce the trigger threshold of IACTs. This includes the simulation, characterization and test of an analog trigger especially designed to achieve the lowest possible energy threshold with the LSTs of CTA. Together with this work, the trigger of the MAGIC telescopes was improved. We have simulated, tested and commissioned a new concept of stereoscopic trigger. This new system, that uses the information of the position of the showers on each of the MAGIC cameras, is dubbed “Topo-trigger”. The scientific fraction of the thesis deals with galactic sources observed with the MAGIC telescopes. In Part III, I talk about the analysis of the VHE -ray emission of Pulsar Wind Nebulae (PWNe): the discovery of VHE -ray emission from the puzzling PWN 3C 58, the likely remnant of the SN 1181 AD and the weakest PWN detected at VHE to date; the characterization of the VHE tail of the Crab nebula by observing it at the highest zenith angles; and the search for an additional inverse Compton component during the Crab nebula flares reported by Fermi-LAT in the synchrotron regime. Part IV is concerned with searches for VHE -ray emission of cataclysmic variable stars. I studied, on a multiwavelength context, the VHE -ray nature of the previously claimed pulsed -ray emission of the cataclysmic variable AE Aqr. I also performed observations of novae and a dwarf nova to pinpoint the acceleration mechanisms taking place in this kind of objects and to discover a putative hadronic component of the soft -ray emission. A conclusion chapter summarizes all the work performed and lists prospects related with the topics treated in this thesis.
89

Espacio y empatía en "I Tatti" : el utillaje conceptual de la crítica de la arquitectura después de la Segunda Guerra Mundial

Martínez Martínez, Raúl 02 May 2014 (has links)
This thesis belongs to the field of the history of architectural theory and criticism. lt focuses on an innovative architectural analysis and design method which was first introduced in the Anglo-American tradition by the masterpiece of the English architect, poet, essayist and critic Geoffrey Scott (1884-1929), The Architecture of Humanism : A Study in the History· of Taste (1914), a reference work for many architects, historians and critics of modern architecture in the period following World War 11. The results are presented in three chapters. Both first and second study the same period of time (1890-1930) and show the origin and propagation of two of Scotts key concepts, Space and Empathy. - Chapter one focuses on the concept of Space; it follows its Anglo-American development, parallel to its growth in the German tradition. Emphasis is made on the key formative role of Bernard Berenson (1865-1959) -with his essay 'A Word for Renaissance Churches"'(1893)- and Geoffrey Scott -with The Architecture of Humanism (1914). The chapter ends with the analysis of the reading of ScottS book in modern terms made by a young Henry-Rusell Hitchcock (1903-1987) in Modern Architecture: Romanticism and Reintegration (1929). - Chapter two focuses on the concept of Einfühlung (Empathy). lt displays the influence of the psychologist Theodor Lippss (1851-1914) theory of aesthetics upon the intellectual group gathered around Bernard Berenson in I Tatti, his villa near Florence, in the early 20th century. - Chapter three is the provisional- conclusion of the study. lt focuses on the two decades immediately after the end of World War II (1945-1965), when the concepts of Space and Empathy joined that of Architectural Experience and had a wide dissemination. In order to show the great influence of these concepts during this period of time and their strong relation to their first development, five significant case studies are proposed: 1. Bruno Zevi (1918-2000). underlying the importance of ScottS book in the creation and development of his theoretical-historical-methodological corpus, particularly during the years immediately after his return to ltaly from the United States (1945-1950); 2. Colin Rowe (1920-1999), showing his two methods from the mid-50s on: the perceptual-analytical perspective of Wittkowerian roots of his early works. along with the perceptual-experiential one of Scottian origin -as a result of his contact with the American culture; 3. Vincent Scully (1920-). reflecting how, from the beginning, his historical and methodological position in relation to architectural analysis was in full harmony with Scotts empathic theories; 4. Philip Johnson (1906-2005), one of the major advocates of the theoretical proposal of The Architecture of Humanism (1914), always willing to implement its contents both in architectural analysis and design; and 5. Charles W. Moore (1925-1993), revealing the empathic-body standpoint he sustained both in his educational and architectural work: five figures with an Anglo-American training who performed a prominent role in architectural theory, practice and academy, and still influent. A final epilogue includes Philip Thiels (1920-) work in order to expand the various interpretations given to these three concepts in the field of architectural culture in the second half of the 20th century and to leave this research open. / La presente tesis se inscribe dentro de la historia de la teoría y crítica de la arquitectura. Gira alrededor de una innovadora propuesta metodológica de análisis y diseño arquitectónico que, por primera vez, se hizo manifiesta en la tradición angloamericana en la obra cumbre del arquitecto, poeta, ensayista y crítico inglés, Geoffrey Scott (1884-1929): The Architecture of Humanism.A Study in the History of Taste (1914). Un texto que fue obra de referencia para muchos de los arquitectos, historiadores y críticos de la arquitectura moderna que surgieron a partir del fin de la Segunda Guerra Mundial. Ésta se estructura en tres capítulos. Los dos primeros, abarcan un mismo espacio temporal (1890-1930) y muestran la génesis y vía de propagación de dos de los conceptos clave del corpus scottiano: el espacio y la empatía. El primer capítulo se centra en el concepto de espacio. Recorre el itinerario angloamericano que evoluciona en paralelo a la tradición germana. Y pone el acento en los dos eslabones que intervienen en la conformación y desarrollo de esta vía alternativa: Bernard Berenson (1865-1959) con su ensayo "A Word for Renaissance Churches” (1893) y Geoffrey Scott con su obra maestra The Architecture of Humanism (1914). El análisis finaliza con la moderna lectura que hizo de este libro un precoz Henry-Rusell Hitchcock (1903-1987) en Modern Architecture: Romanticism and Reintegration (1929). El segundo capítulo se centra en el concepto de la Einfühlung (empatía). Muestra el papel que desempeñan las influyentes teorías estéticas de Theodor Lipps (1851-1914), relacionadas con la psicología, en el círculo intelectual que se formó, a principios del siglo XX, alrededor de la figura de Bernard Berenson y de su villa cerca de Florencia, I Tatti. Esta investigación finaliza, a modo de conclusión provisional, con un tercer capítulo que se centra en las dos décadas inmediatas al fin de la Segunda Guerra Mundial (1945-1965), periodo en el que los dos conceptos anteriores sumados al de experiencia arquitectónica tuvieron una gran difusión. Para reflejar el peso y la gran influencia que atesoraron dichos conceptos en aquel periodo, así como, para indicar la línea sucesoria entre estos dos lapsos temporales, se recurre a cinco casos de estudio relevantes: 1) Bruno Zevi (1918-2000) donde se resalta la importancia que tuvo el libro de Scott en la creación y desarrollo su corpus teórico-histórico-metodológico, en concreto, el elaborado en los años inmediatos tras su regreso a Italia procedente de los Estados Unidos (1945-1950); 2) Colin Rowe (1920-1999) donde se muestran las dos vías metodológicas que compartió a partir de mediados de los años cincuenta: la metodología crítica perceptivo-analítica de raíz wittkoweriana de sus primeros trabajos, junto con la metodología crítica perceptivo-experiencial de raíz scottiana fruto de sus contactos con la cultura norteamericana; 3) Vincent Scully (1920-) donde se muestra cómo, ya desde sus inicios, la postura histórico-metodológica que mantuvo para el análisis de la arquitectura estuvo en plena sintonía con las teorías empáticas de Scott; 4) Philip Johnson (1906-2005), uno de los principales defensores de la propuesta teórica de The Architecture of Humanism (1914), donde se evidencia su intento de aplicación de sus contenidos tanto en el campo del análisis como el del diseño arquitectónico; y 5) Charles W. Moore (1925-1993) donde se destaca la postura empático-corporal que defendió tanto en su labor de docente como de arquitecto. Por tanto, cinco figuras de formación angloamericana que tuvieron un papel destacado en el campo teórico, práctico y académico de la arquitectura y cuya influencia sigue siendo hoy perceptible. Un epílogo final deja abierta esta investigación con la inclusión de los trabajos realizados por Philip Thiel (1920-) con el fin de ampliar las variadas interpretaciones que recibieron estos tres conceptos en el ámbito de la cultura arquitectónica en la segunda mitad del siglo XX.
90

Tracing the Perseus spiral arm in the anticenter direction

Monguió i Montells, Maria 22 November 2013 (has links)
The main purpose of this thesis is to map the radial variation of the stellar density for the young stellar population in the Galactic anticenter direction in order to understand the structure and location of the Perseus spiral arm. A uvbyHbeta Stroemgren photometric survey covering 16 square degrees in the anticenter direction was carried out using the Wide Field Camera at the Isaac Newton Telescope. This is the natural photometric system for identifying young stars and obtaining accurate estimates of individual distances and ages. As a result, a main catalog of 35974 stars with all Stroemgren indexes has been obtained, together with a extended one with 96980 stars with partial data. The central 8 square degrees have a limiting magnitude of V~17mag, while the outer region reaches V~15.5mag. These large samples permit us to analyze the stellar surface density variation associated to the Perseus arm and to study the properties of the stellar component and the interstellar extinction in the anticenter direction. To compute the physical parameters for these stars two different approaches have been used, 1) the available pre-Hipparcos empirical calibrations based on cluster data and trigonometric parallaxes, and 2) a new model based method using atmospheric models and evolutionary tracks, optimized for stars up to Teff>7000K. Results for both of them have been compared with Hipparcos data looking for possible biases and trends. The obtained physical parameters allow us to select the intermediate young stars useful for our studies (B5-A3). These stars are young enough to still have a small intrinsic velocity dispersion (making them respond stronger to a perturbation), but they are also old enough to have approached a dynamic equilibrium with the spiral perturbation. Through their stellar distances, and after defining distance complete samples between 1.2 and 3kpc, we can trace the density distribution in the anticenter direction, finding a clear overdensity around 1.7kpc with an amplitude of 10% that can be associated to the Perseus arm. Those distance complete samples, having a statistical significant number of stars, built using the new model based method for distance estimation, show a significance of the Perseus arm peak overdensity larger than 3sigma. Exponential fittings also allowed us to constrain the radial scale length of the young population of the Galaxy between 2.0 and 2.6kpc, as well as to estimate the stellar density at the solar vicinity for stars between B4 and A1 type stars in 0.022star/pc2, well in agreement with the results obtained in the new version of the Besancon Galaxy Model. In addition, all these data allow the creation of a 3D extinction map, that carefully analyzed shows the presence of a dust layer clearly in front of the location of the stellar overdensity of the arm, suggesting that the corotation radius of the spiral pattern is further away of the position of the Perseus arm. The detection of this dust lane supports the existence of a density wave. Definitive confirmation will come from the ongoing spectroscopic survey using WYFFOS at the William Herschel Telescope in order to obtain radial velocities for a large subsample of the stars in our photometric catalog, that will allow us to trace the possible kinematic perturbation due to the presence of the Perseus arm. / Avui en dia, i després de molts anys d’investigació, encara no disposem d’una teoria completa sobre la forma i l’origen dels patrons espirals de la Via Làctia. I tot i ser conscients que són un factor important per explicar l’evolució dels discos galàctics, la manca d’evidències observacionals sobre els braços espirals de la nostra Galàxia és evident. Moltes preguntes clau encara no tenen resposta, com ara: quin és el mecanisme de formació i evolució de l’estructura espiral en discs estel•lars? Es tracta d’estructures transitòries o són estructures de llarga durada? Quins són els seus components bàsics; estrelles o gas? El treball realitzat durant aquesta tesi pretén ajudar a resoldre algun d’aquests interrogants. El principal objectiu és traçar el braç espiral de Perseu en la direcció de l’anticentre Galàctic. La feina desenvolupada es pot separar en tres apartats. En primer lloc, un mostreig amb fotometria Strömgren en la direcció de l’anticentre Galàctic, mitjançant el qual hem obtingut un catàleg de 96.980 estrelles, 35.974 d’elles amb informació completa en els sis filtres uvbyHβ, i totes elles en una regió de 16 graus quadrats del cel. En segon lloc, per tal d’obtenir els paràmetres físics per a aquestes estrelles, hem creat un nou mètode a partir de models atmosfèrics i evolutius. Finalment, s’ha utilitzat tota aquesta informació per estudiar la distribució de la densitat estel•lar en la direcció de l’anticentre. Aquestes dades també ens han permès crear un mapa d’extinció tridimensional, a partir del quan hem analitzat la distribució de pols així com la seva relació amb el braç espiral de Perseu.

Page generated in 0.107 seconds