• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2450
  • 116
  • 107
  • 29
  • 25
  • 24
  • 23
  • 22
  • 21
  • 16
  • 12
  • 5
  • 2
  • 2
  • 1
  • Tagged with
  • 2765
  • 1359
  • 514
  • 487
  • 401
  • 387
  • 375
  • 312
  • 264
  • 226
  • 223
  • 207
  • 195
  • 190
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Cosmology with galaxy surveys: how galaxies trace mass at large scales

Pujol Vallribera, Arnau 26 May 2016 (has links)
Els cartografiats galàctics són una eina important per la cosmologia. No obstant això, la majoria de la matèria està en forma de matèria fosca, que no interacciona amb la llum. Per tant, les galàxies que observem des dels nostres telescopis són una petita fracció de la matèria total de l'univers. Per això és necessari entendre la connexió entre galàxies i matèria fosca per tal d'inferir la distribució de tota la matèria de l'univers a partir dels cartografiats galàctics. Les simulacions són una eina important per a predir la formació i evolució de les estructures de matèria fosca i galàxies. Les simulacions permeten estudiar l'impacte de diferents cosmologies i models de formació de galàxies en les estructures a gran escala finals que formen les galàxies i la matèria. A gran escala, les fluctuacions de densitat de galàxies a gran escala són proporcionals a les fluctuacions de matèria per un factor anomenat bias galàctic. Aquest factor permet inferir la distribució de matèria total a partir de la distribució de galàxies, i per tant el coneixement del bias galàctic té un impacte molt important en els nostres estudis cosmològics. Aquesta tesi doctoral està focalitzada en l'estudi del bias galàctic i el bias d'halos a grans escales. Hi ha diferents tècniques per a estudiar el bias galàctic, en aquesta tesi ens focalitzem en dues d'elles. La primera tècnica utilitza l'anomendat Halo Occupation Distribution (HOD), que assumeix que les galàxies poblen halos de matèria fosca només segons la massa dels halos. No obstant això, aquesta hipòtesi no sempre és suficientment precisa. Utilitzem la simulació Millennium per a estudiar el bias galàctic i d'halos, la dependència en la massa del bias d'halos i els seus efectes en les prediccions del bias galàctic. Trobem que l'ocupació de galàxies en halos no depèn només de la seva massa, i assumir això causa un error en la predicció del bias galàctic. També estudiem la dependència del bias d'halos en l'ambient, i mostrem que l'ambient restringeix molt més el bias que la massa. Quan un conjunt de galàxies és seleccionat per propietats que estan correlacionades amb l'ambient, l'assumpció de que el bias d'halos només depèn de la massa falla. Mostrem que en aquests casos utilitzant la dependència en l'ambient del bias d'halos produeix una predicció del bias galàctic molt més bona. Una altra tècnica per estudiar el bias galàctic és utilitzant Weak gravitational lensing per mesurar directament la massa en observacions. Weak lensing és el camp que estudia les distorsions lleus en les imatges de les galàxies degut a la deflexió de la llum produïda per la distribució de matèria del davant de la galàxia. Aquestes distorsions permeten inferir la distribució a gran escala de la matèria total. Desenvolupem i estudiem un nou mètode per mesurar el bias galàctic a partir de la combinació dels mapes de weak lensing i el camp de distribució de galàxies. El mètode consisteix en reconstruïr el mapa de weak lensing a partir de la distribució de les galàxies de davant del mapa. El bias és mesurat a partir de les correlacions entre el mapa de weak lensing reconstruït i el real. Testegem diferents sistemàtics del mètode i estudiem en quins règims el mètode és consistent amb altres mètodes per mesurar el bias lineal. Trobem que podem mesurar el bias galàctic utilitzant aquesta tècnica. Aquest mètode és un bon complement d'altres mètodes per mesurar el bias galàctic, perquè utilitza assumpcions diferents. Juntes, les diferents tècniques per mesurar el bias galàctic permetran restringir millor el bias galàctic i la cosmologia en els futurs cartografiats galàctics. / Galaxy surveys are an important tool for cosmology. The distribution of galaxies allow us to study the formation of structures and their evolution, which are needed ingredients to study the evolution and content of the Universe. However, most of the matter is made of dark matter, which gravitates but does not interact with light. Hence, the galaxies that we observe from our telescopes only represent a small fraction of the total mass of the Universe. Because of this, we need to understand the connection between galaxies and dark matter in order to infer the total mass distribution of the Universe from galaxy surveys. Simulations are an important tool to predict the structure formation and evolution of dark matter and galaxy formation. Simulations allow us to study the impact of different cosmologies and galaxy formation models on the final large scale structures that galaxies and matter form. Simulations are also useful to calibrate our tools before applying them to real surveys. At large scales, galaxies trace the matter distribution. In particular, the galaxy density fluctuations at large scales are proportional to the underlying matter fluctuations by a factor that is called galaxy bias. This factor allows us to infer the total matter distribution from the distribution of galaxies, and hence knowledge of galaxy bias has a very important impact on our cosmological studies. This PhD thesis is focused on the study of galaxy and halo bias at large scales. There are several techniques to study galaxy bias, here we focus on two of them. The first technique is the Halo Occupation Distribution (HOD) model, that assumes that galaxies populate dark matter haloes depending only on the halo mass. With this hypothesis and a halo bias model, we can relate galaxy clustering with matter clustering and halo occupation. However, this hypothesis is not always accurate enough. We use the Millennium Simulation to study galaxy and halo bias, the halo mass dependence of halo bias, and its effects on galaxy bias prediction. We find that the halo occupation of galaxies does not only depend on mass, and assuming so causes an error in the galaxy bias predictions. We also study the environmental dependence of halo bias, and we show that environment constrains much more bias than mass. When a galaxy sample is selected by properties that are correlated with environment, the assumption that halo bias only depends on mass fails. We show that in these cases using the environmental dependence of halo bias produces a much better prediction of galaxy bias. Another technique to study galaxy bias is by using weak gravitational lensing to directly measure mass. Weak lensing is the field that studies the weak image distortions of galaxies due to the light deflections produced by the presence of a foreground mass distribution. Theses distortions can be used to infer the total mass (baryonic and dark) distribution at large scales. We develop and study a new method to measure bias from the combination of weak lensing and galaxy density fields. The method consists on reconstructing the weak lensing maps from the distribution of the foreground galaxies. Bias is then measured from the correlations between the reconstructed and real weak lensing fields. We test the different systematics of the method and the regimes where this method is consistent with other methods to measure linear bias. We find that we can measure galaxy bias using this technique. This method is a good complement to other methods to measure bias because it uses different assumptions. Together the different techniques will allow to constrain better bias and cosmology in future surveys.
232

Measuring the scatter in the mass richness relation of galaxy clusters for the dark energy survey using the correlation function

Campa Romero, Julia 26 February 2015 (has links)
La evolución de la abundancia de cúmulos de galaxias se está conviertiendo en una herramienta muy potente para medir parámetros cosmológicos. Esto ha motivado el diseño de un nuevo conjunto de cartografiados de gran área como el ‘Dark Energy Survey” (DES). El reto principal para medir con precisión parámetros cosmol´gicos con esta técnica es la calibración precisa de la relación entre la masa de los halos y el observable. En este trabajo presentamos un nuevo método para medir la dispersión de esta relación para el futuro catálogo de cúmulos de DES utilizando el sesgo o bias de la función de correlación de estos cúmulos respecto a la materia. Nuestro análisis se ha desarrollado en simulaciones de N-cuerpos. En particular, en el cono de luz ‘Hubble Volume Simulations SO light cone” que tiene 5000 grados cuadrados (volumen de DES). Para medir correctamente el bias de cúmulos a grandes escalas, primero necesitamos entender las propiedades de los halos de materia oscura. Así estudiamos el sesgo de la función de correlacion de halos respecto a la distribución de materia utilizando el modelo de halo. Este modelo describe el “clustering” de los halos de materia oscura y proporciona una expresión analítica para el bias de los halos en función de la masa. Como el elemento principal del modelo de halo es la función de masa también estudiaremos la precisión de los modelos de abundancia de cúmulos. En nuestro análisis comparamos las medidas en simulaciones con las predicciones de los modelos. Para calcular el bias en simulaciones medimos la función de correlación con el estimador Landy & Szalay y estudiamos los errores estadísticos. Los resultados demuestran que la incertidumbre en la función de masa produce un error sistemático en nuestro método porque el bias depende de esta función. Después de estudiar el bias en halos desarrollamos un modelo de bias para una muestra de cúmulos que compararemos con el bias medido en observaciones. Para este modelo necesitamos relacionar la masa con una parámetro fácilmente observable, en nuestro caso la riqueza. Para esto se requiere una distribución de ocupación de halo (DOH), donde el número de galaxias viene dado por la distribución de probabilidad. En particular, utilizaremos un distribución log-normal cuya media viene dada por la relación masa riqueza medida experimentalmente y la desviación estándard o dispersión, lnM. Asignamos riqueza a los halos de materia oscura del cono de luz a través de esta distribución DOH y estudiamos la precisión con la que se mide la dispersión. El pronóstico de esta nueva técnica muestra cómo obtenemos mejor precisión para los valores más altos de dispersión. Además, esperamos resultados muy competitivos para medir la dispersión esperada en la relación masa riqueza del catálogo de cúmulos de DES. La medida será lo suficientemente precisa para que los parámetros de energía oscura no estén sesgados significativamente. En resumen, nuestra nueva técnica podrá ser utilizada en el futuro catálogo de cúmulos de DES como un método para verificar y contrastar el resultado de la dispersion con otros métodos como la autocalibración. / The evolution of the abundance of cluster of galaxies is becoming a powerful tool to constrain cosmological parameters. This has motivated the design of a new wide-area cluster surveys such as Dark Energy Survey. This survey will have the potential to find hundred of thousands of clusters. The principal challenge to precision cosmology with this technique is the accurate calibration of the relation between the observables and halo masses. In this work we present a new method to measure the scatter in the mass observable relation of galaxy clusters for the future DES cluster catalog, based on the measurements of the bias of the correlation function. Our analysis is developed on N-body simulations. In particular, we use a light cone based on the Hubble Volume Simulations SO light cone that has 5000 deg2 (DES volume). In order to properly measure the large scale bias for clusters, first we need to understand the large scale properties of the dark matter halos. We study how the halos are biased respect to the underlying matter distribution using the halo model. It describes the clustering of dark matter halos and provides an analytical expression for the bias of halos as a function of halo mass. Since the basic element of the halo model is the mass function we also study the accuracy of the halo abundance models. We compare the measurements in simulations with the model predictions. To calculate the bias in simulations we measured the two point correlation function with Landy & Szalay estimator and study the statistical errors. Our results demonstrate that the uncertainty in the mass function produces a systematic error in our method because the halo bias depends on it. After we studied the bias in halos, we develop a bias model for a sample of clusters to compare with observations. We need to relate the mass to a easily observable quantity. In our case we model the bias for a richness threshold. Doing this requires a halo occupation distribution (HOD), where the number of galaxies is specified by the probability distribution. In particular we use a lognormal distribution with a mean given by an empirical mass richness relation and the standard deviation or scatter, lnM. We assign richness to the dark matter halos of the light cone by means of this distribution and study the precision to constrain the scatter. Our forecast of the new analysis technique shows how at the highest values of scatter we obtain the highest precision. We have a very competitive result to measure the expected scatter in the DES mass richness relation and it will be precise enough for the dark energy parameters won’t be significantly biased. In summary, the new method proposed could be used in the DES cluster catalog as a cross check method complementary to other such as self-calibration.
233

Application of dynamical system methods to galactic dynamics : from warps to double bars

Sánchez Martín, Patricia 29 June 2015 (has links)
Most galaxies have a warped shape when they are seen from an edge-on point of view. In this work we apply dynamical system methods to find an explanation of this phenomenon that agrees with its abundance among galaxies, its persistence in time and the angular size of observed warps. Starting from a simple, but realistic, 3D galaxy model formed by a bar and a flat disc, we study the effect produced by a small misalignment between the angular momentum of the system and its angular velocity. To this end, a precession model is developed and considered, assuming that the bar behaves like a rigid body. In order to study the behaviour of the rigid body, we solve its Euler equations. We study the resulting solution in a precessing reference system, selected in such a way to make the angular momentum and angular velocity of the body time independent. After checking that the periodic orbits inside the bar keep being the skeleton of the inner system, even after inflicting a precession to the potential, we compute the invariant manifolds of the unstable periodic orbits departing from the equilibrium points at the ends of the bar to get evidence of their warped shapes. As is well known, from previous studies with 2D galaxy models, the invariant manifolds associated with these periodic orbits drive the arms and rings of barred galaxies and constitute the skeleton of these building blocks. Now, looking at them from an edge-on viewpoint, we find that these manifolds present warped shapes such as those recognized in observations with a close concordance in angles. In addition, test particle simulations have been performed to determine how the stars are affected by the applied precession, confirming in this way the theoretical results obtained. Once the behaviour of the precessing model is known, we develop the model with a more complex potential, including a spherical halo, in order to study the influence of each parameter that gives shape to the potential and to determine the effect of the halo in the formation of galaxy warps. We have observed that the presence of the halo helps to increase the resulting warp angle. The theory of invariant manifolds is also applied to the study of the existence of galaxies with four spiral arms, such as ESO 566-24 and possibly the Milky Way. A double-barred galaxy model is tested as a plausible explanation of the formation of four spiral arms in a galaxy. This is checked through the method of invariant manifolds in various double-barred systems, not restricting ourselves to the Milky Way. We find that the double-barred model is not sufficient by itself to give rise to the shape of four spiral arms as observed, and we suggest possible refinements of the galaxy model in order to better match the experimental observations. The most promising of these model refinements is to consider the galaxy as a non-autonomous system, with two bars which are rotating with different pattern speeds. Dealing with non-autonomous systems leads to the study of their dynamics by means of Lagrange Coherent Structures (LCS). This is a recent, still developing theory, in which the LCS behave analogously to the invariant manifolds in autonomous systems, organizing the evolution of the flow. We have developed our own code for the computation of LCS, which can be applied to parametrized surfaces in systems of any dimension. To establish the comparison between LCS and invariant manifolds, we apply both methods to the pendulum problem, in its autonomous and non-autonomous versions. After this, we compute the LCS for our galaxy model formed by a disc and bar, without precession. We demonstrate that the LCS show the same behaviour as the stable invariant manifolds, and that they exhibit more information in a wide region of the space. / La mayoría de galaxias tienen forma alabeada cuando son vistas desde un punto de vista lateral. En este trabajo aplicamos métodos de sistemas dinámicos para encontrar una explicación de este fenómeno que concuerde con su abundancia entre galaxias, su persistencia en el tiempo y el tamaño de los ángulos de alabeo observados. Partiendo de un modelo de galaxia tridimensional sencillo, pero realista, formado por una barra y un disco delgado, estudiamos los efectos que produce un pequeño desalineamiento entre el momento angular del sistema y su velocidad angular. Con este fin, se desarrolla un modelo de precesión, asumiendo que la barra se comporta como un sólido rígido. Para estudiar el comportamiento del sólido rígido, resolvemos sus ecuaciones de Euler. Estudiamos la solución obtenida en un sistema de referencia de precesión, que hace que el momento y la velocidad angular del cuerpo sean constantes. Después de comprobar que las órbitas periódicas del interior de la barra siguen siendo el esqueleto del sistema, incluso después de aplicar una precesión al potencial, calculamos las variedades invariantes de las órbitas periódicas inestables que parten de los puntos de equilibrio en los extremos de la barra, obteniendo evidencias de sus formas alabeadas. Como es conocido, a partir de estudios previos con modelos bidimensionales de galaxias, las variedades invariantes asociadas con estas órbitas periódicas marcan la posición de los brazos y anillos de las galaxias barradas y constituyen el esqueleto de estos elementos. Ahora, observándolos desde un punto de vista lateral, hallamos que estas variedades presentan formas alabeadas análogas a las observadas, y con una gran concordancia de ángulos. Además, hemos realizado simulaciones de test de partículas para determinar como la precesión aplicada al potencial afecta a las estrellas, confirmando de esta manera los resultados teóricos obtenidos. Una vez se conoce el comportamiento del modelo de precesión, lo sofisticamos con un potencial más complejo, incluyendo un halo esférico, para estudiar la influencia de cada parámetro que da forma al potencial y para determinar el efecto del halo en la formación de galaxias alabeadas. Hemos constatado que la presencia del halo incrementa el ángulo de alabeo. Aplicamos también la teoría de variedades invariantes al estudio de galaxias con cuatro brazos espirales, tales como la ESO 566-24 y posiblemente la Vía Láctea. Se prueba por el método de variedades invariantes un modelo de galaxia con doble barra como una explicación plausible de la formación de los cuatro brazos espirales en una galaxia, utilizando para ello varios sistemas de doble barra, no restringiéndonos a la Vía Láctea. Concluimos que el modelo de doble barra no es suficiente para explicar la formación de cuatro brazos espirales, y sugerimos posibles refinamientos del modelo galáctico para que concuerde mejor con las observaciones experimentales. El más prometedor de estos refinamientos del modelo es considerar la galaxia como un sistema no autónomo, donde las dos barras rotan a distinta velocidad. Tratar con sistemas no autónomos nos conduce al estudio de su dinámica por medio de las Estructuras Coherentes Lagrangianas (LCS). Esta es una teoría muy reciente, todavía en desarrollo, en la que las LCS organizan la dinámica del sistema de manera análoga a cómo lo hacen las variedades invariantes en sistemas autónomos. Hemos creado un programa propio para el cálculo de las LCS, que puede ser aplicado a superficies parametrizadas en sistemas de cualquier dimensión. Para establecer la comparación entre LCS y variedades invariantes, aplicamos ambos métodos al problema del péndulo, en sus versiones autónoma y no autónoma. Después, calculamos las LCS en nuestro modelo galáctico formado por un disco y una barra, sin precesión. Mostramos que las LCS se comportan como las variedades invariantes estables, y que proporcionan más información en una amplia región del espacio.
234

Contribución al Estudio de la Dinámica Galáctica: Superposición de Sistemas Estelares

Alcobé López, Santiago 25 May 2001 (has links)
Se analizan diversos aspectos del comportamiento cinemático de las poblaciones estelaresen el entorno solar. Para ello se pone a punto un método numérico de superposición desistemas estelares que permite aproximar una muestra global de estrellas por dos o máscomponentes cada una de ellas con distribución normal de velocidades. Se parte de losprincipios y métodos de la Dinámica Galáctica. Se plantea el modelo estadístico de lasuperposición de n funciones de distribución de Schwarzschild generalizadas. Se desarrolla un método de cálculo numérico para el caso particular de dos poblaciones que finalmente se aplica a muestras estelares locales. Los resultados que se obtienen de la aplicación delmétodo se encajan dentro de los modelos dinámicos que se presentan al principio.Adicionalmente se desarrolla un método de selección de la muestra de estrellas por máximaentropía de la probabilidad de mezcla.Se resumen varios modelos dinámicos de sistemas estelares de Chandrasekhar que utilizandiferentes hipótesis de simetrías de la distribución de velocidades: Simetría cilíndrica en estado estacionario, en estado no estacionario con y sin simetría respecto del planogaláctico y simetría axial no cilíndrica. Se utiliza el principio de superposición depoblaciones para obtener grupos de estrellas que se ajustan a modelos dinámicos sencillosaun cuando el conjunto global de estrellas no pueda interpretarse de acuerdo con lasmismas simplificaciones. Se describen las diferentes interpretaciones del fenómeno de ladesviación del vértex resumiendo sus posibles causas. Se introduce el concepto depoblaciones estelares de acuerdo con el criterio de que cinemática y distribución espacialhacen referencia a componentes mientras que edad y metalicidad se refieren a poblacionesdentro de una componente. Se presenta el desarrollo estadístico que da lugar al algoritmode cálculo y se deducen las expresiones de los momentos de orden n de una superposiciónarbitraria dep poblaciones. Tales expresiones dan lugar a un sistema de ecuaciones cuya resolución para el caso p=2 constituye el método numérico de separación de poblaciones.Se optimiza así un desarrollo analítico previo utilizando el mínimo número de grupos estelares que expliquen los parámetros característicos de la muestra. Se mejoran los resultados mediante propagación estadística de errores y resolución de sistemas de ecuaciones por mínimos cuadrados ponderados. Para entrenar el método numérico se utilizan muestras sintéticas. Estas muestras, permiten introducir estrellas de comportamiento cinemático extremo y sugieren el criterio de selección de la muestra.Además, las muestras sintéticas permiten aplicar el método numérico de forma recurrente previa extracción de la población más dispersa y así obtener más de dos poblaciones gausianas a partir de una muestra global. Se define un criterio de selección de estrellas de la muestra para excluir las que presentan características cinemáticas más extremas. Este criterio puede asociarse con la idea de máxima entropía para obtener la aproximación general representativa del máximo número de estrellas.Finalmente se aplica todo lo planteado a muestras del entorno solar: CNS3 e HIPPARCOS.La aplicación del método a estas muestras permite deducir interesantes conclusiones sobre la cinemática local. Se aportan nuevos valores para las velocidades radiales, desviación del vértex y proporciones de mezcla de poblaciones en el entorno solar. En la muestra procedente del CNS3 se aprecian los denominados discos joven y viejo siendo esta última componente compatible con un modelo dinámico de simetría cilíndrica. En la procedente de HIPPARCOS se aprecia además el disco grueso presentándose desviación del vértexpara todas las componentes. Adicionalmente, desde un punto de vista metodológico se aporta la optimización de un método numérico, su tratamiento de errores y la forma de seleccionar la muestra. / In order to study the kinematic behaviour of local stellar populations, it has been developeda statistical method which allows approximating a local stellar sample as superposition oftwo or more stellar systems each one with normal velocity distribution. The partialcomponents are supposed large enough as to be represented by gaussian functions lookingfor macroscopic properties, so that they may be associated with stellar populations.Some Galactic dynamic models developed by different authors are reviewed. These modelsare based in the Chandrasekhar's approximation for the velocity distribution function.Depending on the symmetry hypothesis taken for describing the model some conclusionsabout the values of the moments, mean velocities and vertex deviation are obtained.Then, a statistical model based on the use of the moments of second, third and fourth orderis developed. The velocity density function is approximated by the superposition of twotrivariate normal distributions leading to an equation system optimized for minimizing theerrors.A local stellar sample is drawn from neighbour star catalogues by using a non-informativefiltering method looking for the maximum entropy of the mixture probability. Thus, we areable to apply the method recursively in order to identify more than two groups in thesample. The population covariance matrices are determined as well as the mean velocities,the vertex deviation and the mixture proportions. The method has been applied to CNS3and HIPPARCOS.The most remarkable conclusions deduced from the kinematic parameters are: In CNS3 twoclear components are clearly detected. The one corresponding to old disk stars iscompatible with dynamic models accepting axial symmetry and shows no vertex deviation.In HIPPARCOS, three components are shown which are associable to young, old and thickdisks. The component of CNS3 associable with young as well as these three ones show nonegligible vertex deviation and require a point axial symmetry model in order to explain itskinematics. For both samples, a radial differential movement between young and old diskcomponents is also detected.
235

Corrección de las constantes fundamentales a partir de la observación de ocultaciones de estrellas por la Luna

Rosselló Nicolau, Gaspar 17 January 1981 (has links)
Entendemos por ocultación de una estrella por la Luna al fenómeno por el cual la estrella se hace invisible al pasar aparentemente por detrás del disco lunar. Las fases de una ocultación son la inmersión y la emersión, o desaparición y reaparición de la estrella por el borde lunar, respectivamente. En general, la observación de este tipo de fenómenos se hace visualmente, si bien a partir de 1947 se empezó a observar con métodos fotoeléctricos. La observación visual de ocultaciones conlleva un error, ecuación personal, en la determinación del tiempo observado que varía según sea el sistema utilizado para el registro del tiempo (Van Flandern, 1970; Morrison, 1979). Con la observación de las ocultaciones por métodos fotoeléctricos, este error desaparece al sustituir el ojo por un fotodetector acoplado a un registrador preciso de tiempo, con lo cual se conoce con exactitud el instante en que se ha producido el fenómeno. Hasta el siglo XVIII todas las teorías existentes consideraban uniforme el movimiento medio de la Luna. Atendiendo a las irregularidades existentes, era necesario disponer de una nueva teoría lunar que pudiera compararse con las observaciones. Fueron muchos los autores que se dedicaron a este tema, determinando variaciones y confeccionando Tablas de la Luna. Cabe destacar el trabajo realizado por Euler y otros matemáticos contemporáneos suyos, como Laplace y D'Alembert, que sustituyeron las aproximaciones geométricas utilizadas hasta entonces para calcular las variaciones por métodos analíticos que hacían más precisos los cálculos. Uno de los trabajos que más ha contribuido al desarrollo de la teoría lunar ha sido el llevado a cabo por Symon Newcomb (1878-1912) y en el cabe distinguir dos partes: en la primera de ellas desarrolla la teoría matemática de las desigualdades de largo periodo en el movimiento de la Luna y en la segunda hace un estudio de estas, desigualdades a partir de observaciones anteriores a 1850. Posteriormente Spencer Jones (1932), con las observaciones de ocultaciones de estrellas por la Luna efectuadas en el Observatorio de Ciudad del Cabo y las enumeradas por Newcomb en su trabajo, hace una revisión de la, teoría desarrollada por éste, obteniendo las correspondientes correcciones a los elementos orbitales. Martin (1969) utilizando observaciones efectuadas desde 1627 a 1860 hace un análisis de todas ellas, agrupándolas en cinco épocas distintas y, por primera vez, efectuando en observaciones antiguas correcciones al limbo lunar (Watts, 1963). En estudios posteriores de Van Flandern y Morrison ya se trabaja con observaciones más: recientes y las correcciones que se obtienen concuerdan en general entre ellas. Sin embargo tanto uno como otro utilizan ocultaciones observadas por métodos visuales, aunque Morrison en su último análisis incluye también observaciones obtenidas por métodos fotoeléctricos. Esta tesis se organiza de la siguiente manera. En el capítulo 1 exponemos el cálculo de una ocultación, utilizando un procedimiento vectorial que simplifica mucho la teoría, y el cálculo de la posición aparente de la estrella, utilizando un método desarrollado por Emerson (1973) de muy fácil manejo con ordenador. En el capítulo 2, a partir de la reducción de cada observación, se plantea la correspondiente ecuación de condición en !unción de los elementos orbitales y constantes básicas, resultando una ecuación con 19 correcciones a los parámetros, de las cuales se suponen nulas las dos relativas a la posición de la estrella. En el capítulo 3 se analizan en profundidad todos los ficheros confeccionados a partir de las cintas magnéticas facilitadas por L.V. Morrison, del “Royal Greenwich Observatory”, entidad encargada de de recopilar los datos de las observaciones de ocultaciones obtenidos en todo el mundo. Finalmente en el capítulo 4 se exponen los resultados obtenidos y se efectúa la discusión de cada uno de ellos.
236

A network approach for strapdown inertial kinematic gravimetry

Termens Perarnau, Maria Assumpció 07 March 2014 (has links)
Compared to the conventional ground measurement of gravity, airborne gravimetry is more efficient and cost-effective. Especially, the combination of GPS and INS is known to show very good performances recovering the gravity signal in the range of medium frequencies (1--100 km). The processing of airborne gravity data traditionally consists of various independent steps, such as filtering, gridding and adjustment of misfits at crossover points. Each of these steps may introduce errors that accumulate in the course of processing. Mainly, the extraction of gravity anomalies from airborne strapdown INS gravimetry has been based on the state-space approach (SSA), which has many advantages but displays a serious disadvantage, namely, its very limited capacity to handle space correlations (like the rigorous treatment of crossover points). This dissertation explores an alternative approach through the well known geodetic network approach, where the INS differential mechanisation equations are interpreted as observation equations of a least-squares parameter estimation problem. In numerical terms, the INS equations are solved by a finite difference method where the initial/boundary values are substituted with the appropriated observation equations. The author believes that the above approach has some advantages that are on worth exploring; mainly, that modelling the Earth gravity field can be more rigorous than with the SSA and that external information can be better exploited. It is important to remark that this approach cannot be applied to real-time navigation. However, here we are not trying to solve a navigation problem but a geodetic one. A discussion of the different ways to handle with the associated system of linear equations will be described and some practical results from simulated data are presented and discussed. / En comparació amb la gravimetria terrestre, la gravimetria aerotransportada és més eficient i rendible. Especialment, la combinació de INS i GPS és ben coneguda permostrar molts bons resultats al recuperar el senyal de la gravetat en el rang de freqüències mitjanes (1–100 km). L’extracció de les anomàlies de gravetat a partir de gravimetria aerotransportada SINS s’ha basat principalment en l’aproximació SSA, que té molts avantatges, però que mostra un greu inconvenient, a saber, la capacitatmolt limitada per tractar les correlacions espacials (com el tractament rigorós dels punts d’encreuament o cross-overs). Aquesta tesi examina una alternativa a través de la coneguda aproximació en xarxes extensament usada en geodèsia, en el que les equacions diferencials de mecanització del INS s’interpreten com equacions d’observació d’un problema d’estimació de paràmetres per mínims-quadrats. En termes numèrics, les equacions de mecanització INS es resolen per un mètode de diferències finites, on els valors inicials de frontera se substitueixen per equacions d’observació. L’autora considera que l’enfocament exposat té algunes avantatges que val la pena explorar; sobretot, la modelització del camp gravitatori terrestre pot sermés rigorós que amb SSA i les equacions d’observació poden ser explotades millor. És important assenyalar que aquest enfocament no es pot aplicar a la navegació en temps real. Tanmateix, en aquest cas no es tracta de resoldre un problema de navegació, sino un de geodèsic. En aquesta dissertació es presentaran diferents maneres de tractar aquest sistema d’equacions lineals i esmostraran alguns resultats pràctics a partir de dades simulades. / En comparación con la gravimetría terrestre, la gravimetría aerotransporta esmás eficiente y rentable. Especialmente, la combinación de INS y GPS es bién conocida por mostrar muy buenos resultados recuperando la gravedad en el rango de frecuencias medias (1–100 km). La extracción de las anomalías de gravedad aerotransportada SINS se ha basado fundamentalmente en el enfoque SSA, que aunque tiene muchas ventajas muestra un inconveniente grave, a saber, su capacidad muy limitada de manejar las correlaciones espaciales (como el tratamiento riguroso de crossovers). Esta tesis examina una alternativa a través de la conocida aproximación de redes ampliamente usada en Geodesia, en el que las ecuaciones de mecanización INS se interpretan como las ecuaciones de observación de un problema de estimación de paràmetros por mínimos cuadrados. En términos numéricos, las ecuaciones INS se resuelven por un método de diferencias finitas, donde los valores iniciales de frontera se sustituyen por las ecucaciones de observación apropiadas. La autora considera que el enfoque expuesto tiene algunas ventajas que valen la pena explorar, sobretodo que la modelización del campo gravitatorio terrestre puede realizarse de unamanera más rigurosa que con SSA y que las ecuaciones de observación externas y/o auxiliares pueden explotarse mejor. Es importante mencionar que, actualmente, este enfoque no puede aplicarse a la navegación en tiempo real. Sin embargo, aquí no se trata de resolver un problema de navegación, sino uno de geodésico. En esta disertación se presentan diferentes maneras de tractar el sistema lineal de ecuaciones asociado y se muestran algunos resultados prácticos a partir de datos simulados.
237

Análise espacial da produção de leite no Brasil / Spatial analysis of milk production in Brazil

Bacchi, Matheus Demambre 28 February 2019 (has links)
A cadeia produtiva do leite possui grande importância para a economia brasileira, gera empregos, renda e, em muitos locais, ainda mantém sua função social, em razão da produção familiar. No entanto, a produção se dá de forma heterogênea no território do país, tanto na diferença entre o volume produzido pelas diversas regiões, como no modo de produção utilizado. Nesse contexto, este estudo tem por objetivo verificar a distribuição espacial e caracterizar a produção de leite bovino nas microrregiões e nos municípios brasileiros. Para isso, inicialmente foi realizada uma análise descritiva do panorama da produção leiteira no país, e no cenário internacional, além da identificação das microrregiões brasileiras especializadas na produção, por meio do Quociente Locacional (QL). Posteriormente, foi utilizado um método proveniente da Análise Exploratória de Dados Espaciais (AEDE), o I de Moran, para medir a autocorrelação espacial das respectivas microrregiões. Por fim, foi utilizada uma Análise de Componentes Principais (ACP), para verificar as relações entre um conjunto de variáveis relevantes para a produção de leite. Entre os resultados encontrados, a partir do QL, foi identificado queda no número de microrregiões especializadas na produção de leite entre 2000 e 2016, sendo que a maioria estava concentrada nos estados de Minas Gerais, Goiás e na região Sul. Nos anos recentes, houve uma tendência de concentração da produção em bacias produtoras, com aumento da participação da região Sul, e também da produtividade em todas as regiões. Por meio do I de Moran Global, verificou-se a presença de coeficientes angulares positivos, indicando autocorrelação espacial positiva em todos os casos. Pelo I de Moran Local, constatou-se a formação dos clusters Alto-Alto nas regiões mais produtivas do país, sendo elas Sul e Sudeste e a formação de clusters Baixo-Baixo nas regiões com as menores produtividades, sobretudo Norte e Nordeste. Por fim, por meio da ACP foram formados dois componentes que juntos explicaram 50,2% da variabilidade dos dados. O primeiro componente agregou variáveis mais relacionadas com a produção de leite em volume, enquanto que o segundo componente se relacionou mais com variáveis inerentes a produtividade. Desse modo, foi possível verificar o crescimento recente da produção e da produtividade de leite no país, bem como sua heterogeneidade. No entanto, há desafios a serem enfrentados, para que seja atingido um melhor nível de produtividade. / The cycle of milk production holds noted relevance for the Brazilian economy, generates jobs, income and, in many places, still ensure it social role, due to family production. However, the production into the country is heterogeneous, both in the difference between the produced volume by the many regions and in the mode of production used. In this context, the aim of this study was to verify and characterizes the production of bovine milk between microregions and municipalities of Brazil and their spatial distribution. In this concerning, firstly it was realized a descriptive analysis of the milk production in the country, in view of national and international scenario, additionaly to the identification of the Brazilian microregions specialized in the production, through the Location Quotient (LQ) analysis. Subsequently, it was used a method from the Exploratory spatial data analysis (ESDA), Moran\'s I, to measure the spatial autocorrelation of the respective microregions. Finally, it was used Principal Component Analysis (PCA). It was identified a decrease in the number of microregions specialized in milk production between 2000 and 2016, among the results found from the LQ analysis, with the majority concentrated in states of Minas Gerais, Goiás and the Southern Brazil. Recently, there has been a tendency to concentrate production in producing basins, with an increase in the participation of the Southern Brazil and also, in productivity in all the Brazilian regions. Also, it was verified the presence of positive angular coefficients using the Moran\'s I Global, indicating positive spatial autocorrelation in all cases. The formation of the High-High clusters in the most productive regions of the country (Southern and Southeast) was verified by Moran\'s I Local analysis, as well as the formation of clusters Low-Low in the regions with the lowest productivities, mainly North and Northeast. Finally, using the PCA, it was formed two components which together explained 50.2% of the variability of the data. The first component added variables related to milk production in volume, while the second component was more related to variables inherent to productivity.
238

Estudo descritivo da infestação por Aedes aegypti de 1998 a 2015 e de casos de dengue de 2001 a 2015, no município de São Sebastião - SP, Brasil / Descriptive study of Aedes aegypti infestation from 1998 to 2015 and of dengue cases from 2001 to 2015 in the municipality of São Sebastião - SP, Brazil

Pinto, Gabriela de Oliveira de Avila 17 December 2018 (has links)
A análise espaço-temporal da transmissão é um recurso fundamental para abordagem de doenças que acometem a população. Este estudo teve por objetivo descrever e analisar espacialmente e temporalmente a transmissão de dengue no município de São Sebastião - SP, entre os anos de 2001 a 2015, buscando elucidar aspectos da transmissão de dengue no município. Dados de casos de dengue e variáveis de características da população foram obtidos no Centro de Vigilância Epidemiológica \"Prof. Alexandre Vranjac\" e na Secretaria da Saúde de São Sebastião do banco Sistema de Informação de Agravos de Notificação (SINAN) e dados da infestação do vetor Aedes aegypti, nos arquivos dos sistemas de informação SISAEDES e SISAWEB, bem como de projetos desenvolvidos anteriormente pelo Laboratório de Biologia e Ecologia de Culicídeos da SUCEN. Foi realizada a análise descritiva dos dados de incidência e do índice de infestação predial (IP). Observou-se o registro da positividade do vetor em 1998, na região central, com crescente expansão para os bairros próximos. A ocorrência dos casos de dengue mostrou um possível maior registro no sexo feminino. Anos com baixos índices anuais pluviométricos demonstraram provável aumento no número de casos de dengue e de imóveis positivos para o vetor. Anos com temperaturas médias anuais entre 20 a 31ºC mostraram uma possível elevação no número de casos e de infestação de Aedes aegypti. / The spatial-temporal analysis of transmission is a base resource on approaching of population diseases. The objective of this study is to describe and analyze the spatial-temporal transmission of dengue in the municipality of São Sebastião - SP, between 2001 and 2015 aiming to elucidate aspects of dengue transmission. The data of cases of Dengue and variables characteristic of population were obtained from the center of epidemiological vigilance \"Prof. Alexandre Vranjac\", the notification database (SINAN) of health secretary from São Sebastião, the database of vector Aedes aegypti infestation in information system SISAEDES and SISAWEB and previous projects developed by laboratory of culicid biology and ecology from Superintendência de Controle de Endemias (SUCEN). It was observed the vector positivity in 1998 on central region with a growing expansion to near neighborhoods. The occurrence of dengue cases has shown a possible higher level on female gender. The years with low annual precipitation levels had a possible increasing on number of dengue cases and houses with vector. The years with annual temperature ranging from 20 to 31°C have shown a possible increasing on number of cases and infestation of Aedes aegypti.
239

Funcionalidad territorial : niveles de accesibilidad de la población a equipamientos de salud primaria en la comuna de Pudahuel

Tudela Salazar, Camila January 2017 (has links)
Memoria para optar al título de Geógrafo / La presente investigación se desarrolló dentro del concepto de funcionalidad territorial, abordando los niveles de accesibilidad de la población a los equipamientos de atención primaria de salud, siguiendo los principios de la geografía de la salud aplicada a la localización y distribución de los centros sanitarios. Como área de estudio se analizó el área urbana perteneciente a la comuna de Pudahuel, ubicada al poniente de la Región Metropolitana. Se utilizaron diversos indicadores de accesibilidad que permitieron dar cuenta del grado de accesibilidad a la salud primaria presente en la comuna por medio de mediciones realizadas según estándares de tiempos de acceso a pie. Los resultados indicaron aquellas áreas que presentan deficiencias y que por lo tanto se encuentran más desfavorecidas en cuanto a la atención primaria de salud así como también el nivel de cohesión y funcionalidad territorial en torno los equipamientos sanitarios, develando si se da respuesta a los principios de justicia y equidad espacial
240

Indicador de risco de óbito de pacientes com AIDS no município de Campinas sob uma abordagem de modelos espaço-temporais em análise de sobrevivência

Mota, Thiago Santos. January 2018 (has links)
Orientador: Liciana Vaz de Arruda Silveira / Resumo: O objetivo principal desta tese foi avaliar a sobrevida e o risco espacial de óbito de pacientes portadores de HIV/AIDS em três períodos de tempo, por meio de modelos de sobrevida espaço-temporais. A justificativa desse estudo se deve a lacuna de trabalhos na área de epidemiologia que abordem simultaneamente técnicas estatísticas de análise espacial e sobrevivência na análise de dados de AIDS. Essas técnicas são úteis para um melhor entendimento sobre a epidemia, para auxiliar no monitoramento clínico, avaliar a mortalidade e obter os fatores de risco que influenciam na sobrevida de pacientes portadores de HIV/AIDS. Os dados foram obtidos do Sistema de Informação de Agravos de Notificação (SINAN) e dos óbitos que constam no banco de dados do sistema de informação sobre mortalidade (SIM) de moradores de Campinas. O banco dados foi dividido em três coortes retrospectivas, sendo a primeira composta de 286 indivíduos notificados nos primeiros anos da epidemia de 1980 a 1990 (coorte 1), uma segunda coorte com 1456 indivíduos notificados de 1996 a 2000 e uma terceira coorte com 1342 indivíduos notificados de 2001 a 2005 (coorte 3). Nestas coortes o tempo de seguimento médio foi de 10 anos. Na modelagem utilizou-se duas abordagens, na primeira, bayesiana, ajustou-se um modelo semi-paramétrico bayesiano empregando o método de Aproximação de Laplace Aninhada e Integrada (INLA) agregando as localizações das residências dos indivíduos que pertenciam ao mesmo setor censitário. Na segunda... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The main objective of this thesis was to evaluate the survival and spatial risk of death of patients with HIV/AIDS in three periods of time, through of spatio--temporal survival models. The justification for this study is due to a gap in work in the area of the epidemiology that simultaneously addresses statistical techniques of spatial analysis and survival in the analysis of AIDS data. These techniques are useful for a better understanding of the epidemic, to assist in clinical monitoring, to evaluate mortality and to obtain the risk factors that influence the survival of patients with AIDS. The data were obtained from the Information System for Notifiable Diseases (SINAN) and from the deaths in the database of the mortality information system (SIM) of residents of Campinas. The data was divided into three retrospective cohorts, the first consisting of 286 individuals reported in the first years of the epidemic from 1980 to 1990 (cohort 1), a second cohort with 1456 individuals reported from 1996 to 2000 and a third cohort with 1342 individuals reported from 2001 to 2005 (cohort 3). In these cohorts the mean follow-up time was 10 years. In the modeling we used two approaches, in the first, Bayesian, adjusted a Bayesian semi--parametric model using the Approximation Laplace Nested and Integrated (INLA) aggregating the locations of the residences of individuals belonging to the same census sector. In the second approach, frequentist, we used a proportional extension of the ri... (Complete abstract click electronic access below) / Doutor

Page generated in 0.0493 seconds