• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 146
  • 37
  • 29
  • 18
  • 17
  • 15
  • 6
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 284
  • 84
  • 81
  • 79
  • 78
  • 76
  • 72
  • 71
  • 68
  • 53
  • 51
  • 14
  • 14
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

High performance computing of massive Astrometry and Photometry data from Gaia

Castañeda Pons, Javier Bernardo 15 December 2015 (has links)
Gaia is an extremely ambitious astrometric space mission adopted within the scientific programme of the European Space Agency (ESA) in October 2000. It aims to measure with very high accuracy the positions, motions and parallaxes of a large number of stars and galactic objects, including also for almost all the objects information about their brightness, colour, radial velocity, orbits and astrophysical parameters. Gaia requires a demanding data processing system on both data volume and processing power. The treatment of the Gaia data has been designed as an iterative process between several systems each one solving different aspects of the data reduction system. In this thesis we have addressed the design and implementation of the Intermediate Data Updating (IDU) system. IDU is the instrument calibration and astrometric data processing system more demanding in data volume and processing power of the data processing system of the Gaia satellite data. Without this system, Gaia would not be able to provide the envisaged accuracies and its presence is fundamental to get the optimum convergence of the iterative process on which all the data processing of the spacecraft is based. The design and implementation of an efficient IDU system is not a simple task and a good knowledge of the Gaia mission is fundamental. The design and implementation of IDU is not only referring to the actual design and coding of the system but also to the management and scheduling of all the related development tasks, system tests and in addition the coordination of the teams contributing to this system. The developed system is very flexible and modular so it can be easily adapted and extended to cope with the changes on the operational processing requirements. In addition, the design and implementation of IDU presents a variety of interesting challenges; covering not only the purely scientific problems that appear in any data reduction but also the technical issues for the processing of the huge amount of data that Gaia is providing. The design has also been driven by the characteristics and restrictions of the execution environment and resources -- Marenostrum supercomputer hosted by the Barcelona Supercomputing Center (BSC) (Spain). Furthermore, we have developed several tools to make the handling of the data easier; including tailored data access routines, efficient data formats and an autonomous application in charge of handling and checking the correctness of all the input data entering and produced by IDU. Finally, we have been able to test and demonstrate how all the work done in the design and implementation of IDU is more than capable of dealing with the real Gaia data processing. We have basically executed two of the IDU tasks over the first ten months of routine operational Gaia data. This execution has been the very first cyclic data processing level run over real data so far. Executing IDU at Marenostrum over that amount of data for the first time has been a challenging task and from the results obtained we are confident that the system, we have designed and that constitutes the bulk of this thesis, is ready to cope with the Gaia data according to the requirements sets. Furthermore, the presented design provides a solid IDU system foundation for the challenging task of processing the Gaia data during the forthcoming years. / Gaia es la misión espacial astrométrica más ambiciosa de la Agencia Espacial Europea (ESA). El satélite fue lanzado el 19 de Diciembre de 2013 y su objetivo principal es la determinación, con una resolución y precisión sin precedentes, de las posiciones, distancias y velocidades de más de mil millones de estrellas de nuestra galaxia. Esta Tesis se centra en el desarrollo del sistema de procesado IDU, "Intermediate Data Updating". IDU es una de las etapas de calibración instrumental y reducción de datos astrométricos más exigente del sistema de procesado del satélite Gaia. Sin este sistema, Gaia no podría alcanzar el nivel de precisión que se quiere obtener y su presencia es fundamental para lograr la convergencia óptima del sistema iterativo de procesado de datos en el que se basa la reducción de datos de Gaia. El procesado de los datos de Gaia es un gran reto tecnológico. En particular, el gran volumen de datos a procesar y el elevado número de procesos involucrados ha implicado el diseño de un sistema de distribución y procesado de datos muy complejo. Este procesado se basa en un sistema iterativo entre varios procesos en el que se añaden de manera continuada los nuevos datos recibidos del satélite. De entre estos procesos, esta tesis se centra en el diseño e implementación de IDU, donde se vuelven a procesar todos los datos brutos usando las calibraciones más recientes obtenidas del resto de procesos. El diseño e implementación de IDU ha supuesto una gran variedad de retos; incluyendo los problemas puramente científicos pero también las dificultades técnicas que aparecen en el procesado del gran volumen de datos de Gaia y la gestión de todas las tareas de desarrollo, test y coordinación de los equipos que contribuyen a este sistema. IDU se ejecuta en el supercomputador Marenostrum, gestionado por el "Barcelona Supercomputing Center" (BSC). Finalmente, esta tesis incluye los resultados de la primera ejecución operacional de IDU la cual ha servido para demostrar que el sistema desarrollado esta listo para afrontar el exigente reto de procesar los datos reales de Gaia durante los próximos años de misión.
42

Cosmology with galaxy surveys: how galaxies trace mass at large scales

Pujol Vallribera, Arnau 26 May 2016 (has links)
Els cartografiats galàctics són una eina important per la cosmologia. No obstant això, la majoria de la matèria està en forma de matèria fosca, que no interacciona amb la llum. Per tant, les galàxies que observem des dels nostres telescopis són una petita fracció de la matèria total de l'univers. Per això és necessari entendre la connexió entre galàxies i matèria fosca per tal d'inferir la distribució de tota la matèria de l'univers a partir dels cartografiats galàctics. Les simulacions són una eina important per a predir la formació i evolució de les estructures de matèria fosca i galàxies. Les simulacions permeten estudiar l'impacte de diferents cosmologies i models de formació de galàxies en les estructures a gran escala finals que formen les galàxies i la matèria. A gran escala, les fluctuacions de densitat de galàxies a gran escala són proporcionals a les fluctuacions de matèria per un factor anomenat bias galàctic. Aquest factor permet inferir la distribució de matèria total a partir de la distribució de galàxies, i per tant el coneixement del bias galàctic té un impacte molt important en els nostres estudis cosmològics. Aquesta tesi doctoral està focalitzada en l'estudi del bias galàctic i el bias d'halos a grans escales. Hi ha diferents tècniques per a estudiar el bias galàctic, en aquesta tesi ens focalitzem en dues d'elles. La primera tècnica utilitza l'anomendat Halo Occupation Distribution (HOD), que assumeix que les galàxies poblen halos de matèria fosca només segons la massa dels halos. No obstant això, aquesta hipòtesi no sempre és suficientment precisa. Utilitzem la simulació Millennium per a estudiar el bias galàctic i d'halos, la dependència en la massa del bias d'halos i els seus efectes en les prediccions del bias galàctic. Trobem que l'ocupació de galàxies en halos no depèn només de la seva massa, i assumir això causa un error en la predicció del bias galàctic. També estudiem la dependència del bias d'halos en l'ambient, i mostrem que l'ambient restringeix molt més el bias que la massa. Quan un conjunt de galàxies és seleccionat per propietats que estan correlacionades amb l'ambient, l'assumpció de que el bias d'halos només depèn de la massa falla. Mostrem que en aquests casos utilitzant la dependència en l'ambient del bias d'halos produeix una predicció del bias galàctic molt més bona. Una altra tècnica per estudiar el bias galàctic és utilitzant Weak gravitational lensing per mesurar directament la massa en observacions. Weak lensing és el camp que estudia les distorsions lleus en les imatges de les galàxies degut a la deflexió de la llum produïda per la distribució de matèria del davant de la galàxia. Aquestes distorsions permeten inferir la distribució a gran escala de la matèria total. Desenvolupem i estudiem un nou mètode per mesurar el bias galàctic a partir de la combinació dels mapes de weak lensing i el camp de distribució de galàxies. El mètode consisteix en reconstruïr el mapa de weak lensing a partir de la distribució de les galàxies de davant del mapa. El bias és mesurat a partir de les correlacions entre el mapa de weak lensing reconstruït i el real. Testegem diferents sistemàtics del mètode i estudiem en quins règims el mètode és consistent amb altres mètodes per mesurar el bias lineal. Trobem que podem mesurar el bias galàctic utilitzant aquesta tècnica. Aquest mètode és un bon complement d'altres mètodes per mesurar el bias galàctic, perquè utilitza assumpcions diferents. Juntes, les diferents tècniques per mesurar el bias galàctic permetran restringir millor el bias galàctic i la cosmologia en els futurs cartografiats galàctics. / Galaxy surveys are an important tool for cosmology. The distribution of galaxies allow us to study the formation of structures and their evolution, which are needed ingredients to study the evolution and content of the Universe. However, most of the matter is made of dark matter, which gravitates but does not interact with light. Hence, the galaxies that we observe from our telescopes only represent a small fraction of the total mass of the Universe. Because of this, we need to understand the connection between galaxies and dark matter in order to infer the total mass distribution of the Universe from galaxy surveys. Simulations are an important tool to predict the structure formation and evolution of dark matter and galaxy formation. Simulations allow us to study the impact of different cosmologies and galaxy formation models on the final large scale structures that galaxies and matter form. Simulations are also useful to calibrate our tools before applying them to real surveys. At large scales, galaxies trace the matter distribution. In particular, the galaxy density fluctuations at large scales are proportional to the underlying matter fluctuations by a factor that is called galaxy bias. This factor allows us to infer the total matter distribution from the distribution of galaxies, and hence knowledge of galaxy bias has a very important impact on our cosmological studies. This PhD thesis is focused on the study of galaxy and halo bias at large scales. There are several techniques to study galaxy bias, here we focus on two of them. The first technique is the Halo Occupation Distribution (HOD) model, that assumes that galaxies populate dark matter haloes depending only on the halo mass. With this hypothesis and a halo bias model, we can relate galaxy clustering with matter clustering and halo occupation. However, this hypothesis is not always accurate enough. We use the Millennium Simulation to study galaxy and halo bias, the halo mass dependence of halo bias, and its effects on galaxy bias prediction. We find that the halo occupation of galaxies does not only depend on mass, and assuming so causes an error in the galaxy bias predictions. We also study the environmental dependence of halo bias, and we show that environment constrains much more bias than mass. When a galaxy sample is selected by properties that are correlated with environment, the assumption that halo bias only depends on mass fails. We show that in these cases using the environmental dependence of halo bias produces a much better prediction of galaxy bias. Another technique to study galaxy bias is by using weak gravitational lensing to directly measure mass. Weak lensing is the field that studies the weak image distortions of galaxies due to the light deflections produced by the presence of a foreground mass distribution. Theses distortions can be used to infer the total mass (baryonic and dark) distribution at large scales. We develop and study a new method to measure bias from the combination of weak lensing and galaxy density fields. The method consists on reconstructing the weak lensing maps from the distribution of the foreground galaxies. Bias is then measured from the correlations between the reconstructed and real weak lensing fields. We test the different systematics of the method and the regimes where this method is consistent with other methods to measure linear bias. We find that we can measure galaxy bias using this technique. This method is a good complement to other methods to measure bias because it uses different assumptions. Together the different techniques will allow to constrain better bias and cosmology in future surveys.
43

Measuring the scatter in the mass richness relation of galaxy clusters for the dark energy survey using the correlation function

Campa Romero, Julia 26 February 2015 (has links)
La evolución de la abundancia de cúmulos de galaxias se está conviertiendo en una herramienta muy potente para medir parámetros cosmológicos. Esto ha motivado el diseño de un nuevo conjunto de cartografiados de gran área como el ‘Dark Energy Survey” (DES). El reto principal para medir con precisión parámetros cosmol´gicos con esta técnica es la calibración precisa de la relación entre la masa de los halos y el observable. En este trabajo presentamos un nuevo método para medir la dispersión de esta relación para el futuro catálogo de cúmulos de DES utilizando el sesgo o bias de la función de correlación de estos cúmulos respecto a la materia. Nuestro análisis se ha desarrollado en simulaciones de N-cuerpos. En particular, en el cono de luz ‘Hubble Volume Simulations SO light cone” que tiene 5000 grados cuadrados (volumen de DES). Para medir correctamente el bias de cúmulos a grandes escalas, primero necesitamos entender las propiedades de los halos de materia oscura. Así estudiamos el sesgo de la función de correlacion de halos respecto a la distribución de materia utilizando el modelo de halo. Este modelo describe el “clustering” de los halos de materia oscura y proporciona una expresión analítica para el bias de los halos en función de la masa. Como el elemento principal del modelo de halo es la función de masa también estudiaremos la precisión de los modelos de abundancia de cúmulos. En nuestro análisis comparamos las medidas en simulaciones con las predicciones de los modelos. Para calcular el bias en simulaciones medimos la función de correlación con el estimador Landy & Szalay y estudiamos los errores estadísticos. Los resultados demuestran que la incertidumbre en la función de masa produce un error sistemático en nuestro método porque el bias depende de esta función. Después de estudiar el bias en halos desarrollamos un modelo de bias para una muestra de cúmulos que compararemos con el bias medido en observaciones. Para este modelo necesitamos relacionar la masa con una parámetro fácilmente observable, en nuestro caso la riqueza. Para esto se requiere una distribución de ocupación de halo (DOH), donde el número de galaxias viene dado por la distribución de probabilidad. En particular, utilizaremos un distribución log-normal cuya media viene dada por la relación masa riqueza medida experimentalmente y la desviación estándard o dispersión, lnM. Asignamos riqueza a los halos de materia oscura del cono de luz a través de esta distribución DOH y estudiamos la precisión con la que se mide la dispersión. El pronóstico de esta nueva técnica muestra cómo obtenemos mejor precisión para los valores más altos de dispersión. Además, esperamos resultados muy competitivos para medir la dispersión esperada en la relación masa riqueza del catálogo de cúmulos de DES. La medida será lo suficientemente precisa para que los parámetros de energía oscura no estén sesgados significativamente. En resumen, nuestra nueva técnica podrá ser utilizada en el futuro catálogo de cúmulos de DES como un método para verificar y contrastar el resultado de la dispersion con otros métodos como la autocalibración. / The evolution of the abundance of cluster of galaxies is becoming a powerful tool to constrain cosmological parameters. This has motivated the design of a new wide-area cluster surveys such as Dark Energy Survey. This survey will have the potential to find hundred of thousands of clusters. The principal challenge to precision cosmology with this technique is the accurate calibration of the relation between the observables and halo masses. In this work we present a new method to measure the scatter in the mass observable relation of galaxy clusters for the future DES cluster catalog, based on the measurements of the bias of the correlation function. Our analysis is developed on N-body simulations. In particular, we use a light cone based on the Hubble Volume Simulations SO light cone that has 5000 deg2 (DES volume). In order to properly measure the large scale bias for clusters, first we need to understand the large scale properties of the dark matter halos. We study how the halos are biased respect to the underlying matter distribution using the halo model. It describes the clustering of dark matter halos and provides an analytical expression for the bias of halos as a function of halo mass. Since the basic element of the halo model is the mass function we also study the accuracy of the halo abundance models. We compare the measurements in simulations with the model predictions. To calculate the bias in simulations we measured the two point correlation function with Landy & Szalay estimator and study the statistical errors. Our results demonstrate that the uncertainty in the mass function produces a systematic error in our method because the halo bias depends on it. After we studied the bias in halos, we develop a bias model for a sample of clusters to compare with observations. We need to relate the mass to a easily observable quantity. In our case we model the bias for a richness threshold. Doing this requires a halo occupation distribution (HOD), where the number of galaxies is specified by the probability distribution. In particular we use a lognormal distribution with a mean given by an empirical mass richness relation and the standard deviation or scatter, lnM. We assign richness to the dark matter halos of the light cone by means of this distribution and study the precision to constrain the scatter. Our forecast of the new analysis technique shows how at the highest values of scatter we obtain the highest precision. We have a very competitive result to measure the expected scatter in the DES mass richness relation and it will be precise enough for the dark energy parameters won’t be significantly biased. In summary, the new method proposed could be used in the DES cluster catalog as a cross check method complementary to other such as self-calibration.
44

Application of dynamical system methods to galactic dynamics : from warps to double bars

Sánchez Martín, Patricia 29 June 2015 (has links)
Most galaxies have a warped shape when they are seen from an edge-on point of view. In this work we apply dynamical system methods to find an explanation of this phenomenon that agrees with its abundance among galaxies, its persistence in time and the angular size of observed warps. Starting from a simple, but realistic, 3D galaxy model formed by a bar and a flat disc, we study the effect produced by a small misalignment between the angular momentum of the system and its angular velocity. To this end, a precession model is developed and considered, assuming that the bar behaves like a rigid body. In order to study the behaviour of the rigid body, we solve its Euler equations. We study the resulting solution in a precessing reference system, selected in such a way to make the angular momentum and angular velocity of the body time independent. After checking that the periodic orbits inside the bar keep being the skeleton of the inner system, even after inflicting a precession to the potential, we compute the invariant manifolds of the unstable periodic orbits departing from the equilibrium points at the ends of the bar to get evidence of their warped shapes. As is well known, from previous studies with 2D galaxy models, the invariant manifolds associated with these periodic orbits drive the arms and rings of barred galaxies and constitute the skeleton of these building blocks. Now, looking at them from an edge-on viewpoint, we find that these manifolds present warped shapes such as those recognized in observations with a close concordance in angles. In addition, test particle simulations have been performed to determine how the stars are affected by the applied precession, confirming in this way the theoretical results obtained. Once the behaviour of the precessing model is known, we develop the model with a more complex potential, including a spherical halo, in order to study the influence of each parameter that gives shape to the potential and to determine the effect of the halo in the formation of galaxy warps. We have observed that the presence of the halo helps to increase the resulting warp angle. The theory of invariant manifolds is also applied to the study of the existence of galaxies with four spiral arms, such as ESO 566-24 and possibly the Milky Way. A double-barred galaxy model is tested as a plausible explanation of the formation of four spiral arms in a galaxy. This is checked through the method of invariant manifolds in various double-barred systems, not restricting ourselves to the Milky Way. We find that the double-barred model is not sufficient by itself to give rise to the shape of four spiral arms as observed, and we suggest possible refinements of the galaxy model in order to better match the experimental observations. The most promising of these model refinements is to consider the galaxy as a non-autonomous system, with two bars which are rotating with different pattern speeds. Dealing with non-autonomous systems leads to the study of their dynamics by means of Lagrange Coherent Structures (LCS). This is a recent, still developing theory, in which the LCS behave analogously to the invariant manifolds in autonomous systems, organizing the evolution of the flow. We have developed our own code for the computation of LCS, which can be applied to parametrized surfaces in systems of any dimension. To establish the comparison between LCS and invariant manifolds, we apply both methods to the pendulum problem, in its autonomous and non-autonomous versions. After this, we compute the LCS for our galaxy model formed by a disc and bar, without precession. We demonstrate that the LCS show the same behaviour as the stable invariant manifolds, and that they exhibit more information in a wide region of the space. / La mayoría de galaxias tienen forma alabeada cuando son vistas desde un punto de vista lateral. En este trabajo aplicamos métodos de sistemas dinámicos para encontrar una explicación de este fenómeno que concuerde con su abundancia entre galaxias, su persistencia en el tiempo y el tamaño de los ángulos de alabeo observados. Partiendo de un modelo de galaxia tridimensional sencillo, pero realista, formado por una barra y un disco delgado, estudiamos los efectos que produce un pequeño desalineamiento entre el momento angular del sistema y su velocidad angular. Con este fin, se desarrolla un modelo de precesión, asumiendo que la barra se comporta como un sólido rígido. Para estudiar el comportamiento del sólido rígido, resolvemos sus ecuaciones de Euler. Estudiamos la solución obtenida en un sistema de referencia de precesión, que hace que el momento y la velocidad angular del cuerpo sean constantes. Después de comprobar que las órbitas periódicas del interior de la barra siguen siendo el esqueleto del sistema, incluso después de aplicar una precesión al potencial, calculamos las variedades invariantes de las órbitas periódicas inestables que parten de los puntos de equilibrio en los extremos de la barra, obteniendo evidencias de sus formas alabeadas. Como es conocido, a partir de estudios previos con modelos bidimensionales de galaxias, las variedades invariantes asociadas con estas órbitas periódicas marcan la posición de los brazos y anillos de las galaxias barradas y constituyen el esqueleto de estos elementos. Ahora, observándolos desde un punto de vista lateral, hallamos que estas variedades presentan formas alabeadas análogas a las observadas, y con una gran concordancia de ángulos. Además, hemos realizado simulaciones de test de partículas para determinar como la precesión aplicada al potencial afecta a las estrellas, confirmando de esta manera los resultados teóricos obtenidos. Una vez se conoce el comportamiento del modelo de precesión, lo sofisticamos con un potencial más complejo, incluyendo un halo esférico, para estudiar la influencia de cada parámetro que da forma al potencial y para determinar el efecto del halo en la formación de galaxias alabeadas. Hemos constatado que la presencia del halo incrementa el ángulo de alabeo. Aplicamos también la teoría de variedades invariantes al estudio de galaxias con cuatro brazos espirales, tales como la ESO 566-24 y posiblemente la Vía Láctea. Se prueba por el método de variedades invariantes un modelo de galaxia con doble barra como una explicación plausible de la formación de los cuatro brazos espirales en una galaxia, utilizando para ello varios sistemas de doble barra, no restringiéndonos a la Vía Láctea. Concluimos que el modelo de doble barra no es suficiente para explicar la formación de cuatro brazos espirales, y sugerimos posibles refinamientos del modelo galáctico para que concuerde mejor con las observaciones experimentales. El más prometedor de estos refinamientos del modelo es considerar la galaxia como un sistema no autónomo, donde las dos barras rotan a distinta velocidad. Tratar con sistemas no autónomos nos conduce al estudio de su dinámica por medio de las Estructuras Coherentes Lagrangianas (LCS). Esta es una teoría muy reciente, todavía en desarrollo, en la que las LCS organizan la dinámica del sistema de manera análoga a cómo lo hacen las variedades invariantes en sistemas autónomos. Hemos creado un programa propio para el cálculo de las LCS, que puede ser aplicado a superficies parametrizadas en sistemas de cualquier dimensión. Para establecer la comparación entre LCS y variedades invariantes, aplicamos ambos métodos al problema del péndulo, en sus versiones autónoma y no autónoma. Después, calculamos las LCS en nuestro modelo galáctico formado por un disco y una barra, sin precesión. Mostramos que las LCS se comportan como las variedades invariantes estables, y que proporcionan más información en una amplia región del espacio.
45

Contribución al Estudio de la Dinámica Galáctica: Superposición de Sistemas Estelares

Alcobé López, Santiago 25 May 2001 (has links)
Se analizan diversos aspectos del comportamiento cinemático de las poblaciones estelaresen el entorno solar. Para ello se pone a punto un método numérico de superposición desistemas estelares que permite aproximar una muestra global de estrellas por dos o máscomponentes cada una de ellas con distribución normal de velocidades. Se parte de losprincipios y métodos de la Dinámica Galáctica. Se plantea el modelo estadístico de lasuperposición de n funciones de distribución de Schwarzschild generalizadas. Se desarrolla un método de cálculo numérico para el caso particular de dos poblaciones que finalmente se aplica a muestras estelares locales. Los resultados que se obtienen de la aplicación delmétodo se encajan dentro de los modelos dinámicos que se presentan al principio.Adicionalmente se desarrolla un método de selección de la muestra de estrellas por máximaentropía de la probabilidad de mezcla.Se resumen varios modelos dinámicos de sistemas estelares de Chandrasekhar que utilizandiferentes hipótesis de simetrías de la distribución de velocidades: Simetría cilíndrica en estado estacionario, en estado no estacionario con y sin simetría respecto del planogaláctico y simetría axial no cilíndrica. Se utiliza el principio de superposición depoblaciones para obtener grupos de estrellas que se ajustan a modelos dinámicos sencillosaun cuando el conjunto global de estrellas no pueda interpretarse de acuerdo con lasmismas simplificaciones. Se describen las diferentes interpretaciones del fenómeno de ladesviación del vértex resumiendo sus posibles causas. Se introduce el concepto depoblaciones estelares de acuerdo con el criterio de que cinemática y distribución espacialhacen referencia a componentes mientras que edad y metalicidad se refieren a poblacionesdentro de una componente. Se presenta el desarrollo estadístico que da lugar al algoritmode cálculo y se deducen las expresiones de los momentos de orden n de una superposiciónarbitraria dep poblaciones. Tales expresiones dan lugar a un sistema de ecuaciones cuya resolución para el caso p=2 constituye el método numérico de separación de poblaciones.Se optimiza así un desarrollo analítico previo utilizando el mínimo número de grupos estelares que expliquen los parámetros característicos de la muestra. Se mejoran los resultados mediante propagación estadística de errores y resolución de sistemas de ecuaciones por mínimos cuadrados ponderados. Para entrenar el método numérico se utilizan muestras sintéticas. Estas muestras, permiten introducir estrellas de comportamiento cinemático extremo y sugieren el criterio de selección de la muestra.Además, las muestras sintéticas permiten aplicar el método numérico de forma recurrente previa extracción de la población más dispersa y así obtener más de dos poblaciones gausianas a partir de una muestra global. Se define un criterio de selección de estrellas de la muestra para excluir las que presentan características cinemáticas más extremas. Este criterio puede asociarse con la idea de máxima entropía para obtener la aproximación general representativa del máximo número de estrellas.Finalmente se aplica todo lo planteado a muestras del entorno solar: CNS3 e HIPPARCOS.La aplicación del método a estas muestras permite deducir interesantes conclusiones sobre la cinemática local. Se aportan nuevos valores para las velocidades radiales, desviación del vértex y proporciones de mezcla de poblaciones en el entorno solar. En la muestra procedente del CNS3 se aprecian los denominados discos joven y viejo siendo esta última componente compatible con un modelo dinámico de simetría cilíndrica. En la procedente de HIPPARCOS se aprecia además el disco grueso presentándose desviación del vértexpara todas las componentes. Adicionalmente, desde un punto de vista metodológico se aporta la optimización de un método numérico, su tratamiento de errores y la forma de seleccionar la muestra. / In order to study the kinematic behaviour of local stellar populations, it has been developeda statistical method which allows approximating a local stellar sample as superposition oftwo or more stellar systems each one with normal velocity distribution. The partialcomponents are supposed large enough as to be represented by gaussian functions lookingfor macroscopic properties, so that they may be associated with stellar populations.Some Galactic dynamic models developed by different authors are reviewed. These modelsare based in the Chandrasekhar's approximation for the velocity distribution function.Depending on the symmetry hypothesis taken for describing the model some conclusionsabout the values of the moments, mean velocities and vertex deviation are obtained.Then, a statistical model based on the use of the moments of second, third and fourth orderis developed. The velocity density function is approximated by the superposition of twotrivariate normal distributions leading to an equation system optimized for minimizing theerrors.A local stellar sample is drawn from neighbour star catalogues by using a non-informativefiltering method looking for the maximum entropy of the mixture probability. Thus, we areable to apply the method recursively in order to identify more than two groups in thesample. The population covariance matrices are determined as well as the mean velocities,the vertex deviation and the mixture proportions. The method has been applied to CNS3and HIPPARCOS.The most remarkable conclusions deduced from the kinematic parameters are: In CNS3 twoclear components are clearly detected. The one corresponding to old disk stars iscompatible with dynamic models accepting axial symmetry and shows no vertex deviation.In HIPPARCOS, three components are shown which are associable to young, old and thickdisks. The component of CNS3 associable with young as well as these three ones show nonegligible vertex deviation and require a point axial symmetry model in order to explain itskinematics. For both samples, a radial differential movement between young and old diskcomponents is also detected.
46

Corrección de las constantes fundamentales a partir de la observación de ocultaciones de estrellas por la Luna

Rosselló Nicolau, Gaspar 17 January 1981 (has links)
Entendemos por ocultación de una estrella por la Luna al fenómeno por el cual la estrella se hace invisible al pasar aparentemente por detrás del disco lunar. Las fases de una ocultación son la inmersión y la emersión, o desaparición y reaparición de la estrella por el borde lunar, respectivamente. En general, la observación de este tipo de fenómenos se hace visualmente, si bien a partir de 1947 se empezó a observar con métodos fotoeléctricos. La observación visual de ocultaciones conlleva un error, ecuación personal, en la determinación del tiempo observado que varía según sea el sistema utilizado para el registro del tiempo (Van Flandern, 1970; Morrison, 1979). Con la observación de las ocultaciones por métodos fotoeléctricos, este error desaparece al sustituir el ojo por un fotodetector acoplado a un registrador preciso de tiempo, con lo cual se conoce con exactitud el instante en que se ha producido el fenómeno. Hasta el siglo XVIII todas las teorías existentes consideraban uniforme el movimiento medio de la Luna. Atendiendo a las irregularidades existentes, era necesario disponer de una nueva teoría lunar que pudiera compararse con las observaciones. Fueron muchos los autores que se dedicaron a este tema, determinando variaciones y confeccionando Tablas de la Luna. Cabe destacar el trabajo realizado por Euler y otros matemáticos contemporáneos suyos, como Laplace y D'Alembert, que sustituyeron las aproximaciones geométricas utilizadas hasta entonces para calcular las variaciones por métodos analíticos que hacían más precisos los cálculos. Uno de los trabajos que más ha contribuido al desarrollo de la teoría lunar ha sido el llevado a cabo por Symon Newcomb (1878-1912) y en el cabe distinguir dos partes: en la primera de ellas desarrolla la teoría matemática de las desigualdades de largo periodo en el movimiento de la Luna y en la segunda hace un estudio de estas, desigualdades a partir de observaciones anteriores a 1850. Posteriormente Spencer Jones (1932), con las observaciones de ocultaciones de estrellas por la Luna efectuadas en el Observatorio de Ciudad del Cabo y las enumeradas por Newcomb en su trabajo, hace una revisión de la, teoría desarrollada por éste, obteniendo las correspondientes correcciones a los elementos orbitales. Martin (1969) utilizando observaciones efectuadas desde 1627 a 1860 hace un análisis de todas ellas, agrupándolas en cinco épocas distintas y, por primera vez, efectuando en observaciones antiguas correcciones al limbo lunar (Watts, 1963). En estudios posteriores de Van Flandern y Morrison ya se trabaja con observaciones más: recientes y las correcciones que se obtienen concuerdan en general entre ellas. Sin embargo tanto uno como otro utilizan ocultaciones observadas por métodos visuales, aunque Morrison en su último análisis incluye también observaciones obtenidas por métodos fotoeléctricos. Esta tesis se organiza de la siguiente manera. En el capítulo 1 exponemos el cálculo de una ocultación, utilizando un procedimiento vectorial que simplifica mucho la teoría, y el cálculo de la posición aparente de la estrella, utilizando un método desarrollado por Emerson (1973) de muy fácil manejo con ordenador. En el capítulo 2, a partir de la reducción de cada observación, se plantea la correspondiente ecuación de condición en !unción de los elementos orbitales y constantes básicas, resultando una ecuación con 19 correcciones a los parámetros, de las cuales se suponen nulas las dos relativas a la posición de la estrella. En el capítulo 3 se analizan en profundidad todos los ficheros confeccionados a partir de las cintas magnéticas facilitadas por L.V. Morrison, del “Royal Greenwich Observatory”, entidad encargada de de recopilar los datos de las observaciones de ocultaciones obtenidos en todo el mundo. Finalmente en el capítulo 4 se exponen los resultados obtenidos y se efectúa la discusión de cada uno de ellos.
47

A network approach for strapdown inertial kinematic gravimetry

Termens Perarnau, Maria Assumpció 07 March 2014 (has links)
Compared to the conventional ground measurement of gravity, airborne gravimetry is more efficient and cost-effective. Especially, the combination of GPS and INS is known to show very good performances recovering the gravity signal in the range of medium frequencies (1--100 km). The processing of airborne gravity data traditionally consists of various independent steps, such as filtering, gridding and adjustment of misfits at crossover points. Each of these steps may introduce errors that accumulate in the course of processing. Mainly, the extraction of gravity anomalies from airborne strapdown INS gravimetry has been based on the state-space approach (SSA), which has many advantages but displays a serious disadvantage, namely, its very limited capacity to handle space correlations (like the rigorous treatment of crossover points). This dissertation explores an alternative approach through the well known geodetic network approach, where the INS differential mechanisation equations are interpreted as observation equations of a least-squares parameter estimation problem. In numerical terms, the INS equations are solved by a finite difference method where the initial/boundary values are substituted with the appropriated observation equations. The author believes that the above approach has some advantages that are on worth exploring; mainly, that modelling the Earth gravity field can be more rigorous than with the SSA and that external information can be better exploited. It is important to remark that this approach cannot be applied to real-time navigation. However, here we are not trying to solve a navigation problem but a geodetic one. A discussion of the different ways to handle with the associated system of linear equations will be described and some practical results from simulated data are presented and discussed. / En comparació amb la gravimetria terrestre, la gravimetria aerotransportada és més eficient i rendible. Especialment, la combinació de INS i GPS és ben coneguda permostrar molts bons resultats al recuperar el senyal de la gravetat en el rang de freqüències mitjanes (1–100 km). L’extracció de les anomàlies de gravetat a partir de gravimetria aerotransportada SINS s’ha basat principalment en l’aproximació SSA, que té molts avantatges, però que mostra un greu inconvenient, a saber, la capacitatmolt limitada per tractar les correlacions espacials (com el tractament rigorós dels punts d’encreuament o cross-overs). Aquesta tesi examina una alternativa a través de la coneguda aproximació en xarxes extensament usada en geodèsia, en el que les equacions diferencials de mecanització del INS s’interpreten com equacions d’observació d’un problema d’estimació de paràmetres per mínims-quadrats. En termes numèrics, les equacions de mecanització INS es resolen per un mètode de diferències finites, on els valors inicials de frontera se substitueixen per equacions d’observació. L’autora considera que l’enfocament exposat té algunes avantatges que val la pena explorar; sobretot, la modelització del camp gravitatori terrestre pot sermés rigorós que amb SSA i les equacions d’observació poden ser explotades millor. És important assenyalar que aquest enfocament no es pot aplicar a la navegació en temps real. Tanmateix, en aquest cas no es tracta de resoldre un problema de navegació, sino un de geodèsic. En aquesta dissertació es presentaran diferents maneres de tractar aquest sistema d’equacions lineals i esmostraran alguns resultats pràctics a partir de dades simulades. / En comparación con la gravimetría terrestre, la gravimetría aerotransporta esmás eficiente y rentable. Especialmente, la combinación de INS y GPS es bién conocida por mostrar muy buenos resultados recuperando la gravedad en el rango de frecuencias medias (1–100 km). La extracción de las anomalías de gravedad aerotransportada SINS se ha basado fundamentalmente en el enfoque SSA, que aunque tiene muchas ventajas muestra un inconveniente grave, a saber, su capacidad muy limitada de manejar las correlaciones espaciales (como el tratamiento riguroso de crossovers). Esta tesis examina una alternativa a través de la conocida aproximación de redes ampliamente usada en Geodesia, en el que las ecuaciones de mecanización INS se interpretan como las ecuaciones de observación de un problema de estimación de paràmetros por mínimos cuadrados. En términos numéricos, las ecuaciones INS se resuelven por un método de diferencias finitas, donde los valores iniciales de frontera se sustituyen por las ecucaciones de observación apropiadas. La autora considera que el enfoque expuesto tiene algunas ventajas que valen la pena explorar, sobretodo que la modelización del campo gravitatorio terrestre puede realizarse de unamanera más rigurosa que con SSA y que las ecuaciones de observación externas y/o auxiliares pueden explotarse mejor. Es importante mencionar que, actualmente, este enfoque no puede aplicarse a la navegación en tiempo real. Sin embargo, aquí no se trata de resolver un problema de navegación, sino uno de geodésico. En esta disertación se presentan diferentes maneras de tractar el sistema lineal de ecuaciones asociado y se muestran algunos resultados prácticos a partir de datos simulados.
48

Electrical control of the electron spin dynamics in [111]-oriented GaAs/AGaAs quantum wells / Le contrôle électrique de spin des électron dans des puits quantiques GaAs/AlGaAs d’orientation <111>

Duong, Quang ha 08 March 2013 (has links)
Nous avons étudié la dynamique de relaxation de spin des électrons dans des puits quantiques GaAs/AlGaAs élaborés sur substrat d'orientation <111> par spectroscopie de photoluminescence résolue en temps. En appliquant un champ électrique externe d'environ 50 kV/cm le long de l'axe de croissance, nous avons observé une augmentation spectaculaire du temps de relaxation de spin de l'électron qui peut atteindre des valeurs plus grandes que 30 ns. Ceci est le résultat du contrôle électrique du décalage en énergie "spin-orbite" de la bande de conduction qui peut s'annuler lorsque le terme de Rashba compense exactement celui de Dresselhaus. Ceci entraîne une suppression du mécanisme de relaxation de spin de type D'Yakonov-Perel, mécanisme dominant dans les puits quantiques non dopés à des températures supérieures à 50 K. Les mesures effectuées sous champ magnétique externe transverse (configuration Voigt) montrent que les temps de relaxation de spin pour les trois directions de l'espace peuvent être contrôlés simultanément par le champ électrique. Ce contrôle "total" de la relaxation de spin ne peut se produire que pour des puits quantiques élaborés sur une orientation <111>. Nous avons finalement développé un modèle permettant d'interpréter les mesures expérimentales de la dépendance en champ électrique de l'anisotropie de la relaxation de spin dans ces puits quantiques <111>. / We have studied the electron spin dynamics in <111>-oriented GaAs/AlGaAs quantum wells grown on <111>-substrate by time-resolved photoluminescence spectroscopy. By applying an external electric field about 50 kV/cm along growth direction, we observed the spectacular increase of electron spin which can attain values greater than 30 ns. This phenomenon comes from the electrical control of spin-orbit interaction in conduction band that make the Rashba term compensate exactly with the Dresselhaus term. The cancellation effect of these two terms results in the suppression of electron spin relaxation induced by D'yakonov-Perelmechanism which is dominant in undoped quantum wells and at the temperatures greater than 50K. The measurement under an external transverse magnetic field (Voigt configuration) demonstrates that the spin relaxation times in three spatial directions are also controlled simultaneously by electric field. The "total" control of electron spin relaxation can only be observed in <111>-oriented quantum wells. Finally, we also develop the model to interpret the experimental measurement of spin relaxation anisotropy depending on electric field in <111>-oriented quantum wells.
49

Propriétés structurales et électroniques de Sn/Ge/Si(111), Sn/Si(111) : B et analogie entre intensités photoémise et diffractée en surfaces superpériodiques / Structurals and electronics properties of Sn / Ge / Si (111), Sn / Si (111) : B and analogy between photoemission and LEED intensity of superperiodic surfaces

Srour, Waked 11 December 2012 (has links)
Les propriétés physiques des systèmes dépendent fortement de la dimensionnalité. L'exaltation des corrélations électroniques, la séparation spin charge dans le liquide de Luttinger et les ondes de densité de charge en sont des exemples. Les surfaces semiconductrices avec une dimension réduite servent à étudier la corrélation électronique, elles sont favorables à présenter des transitions de Mott avec leurs états de surface peu dispersifs, ainsi que la manière de découpler les états électroniques de nanostructures du substrat dans la recherche de propriétés électroniques singulières / Not available
50

Intégration des stratégies de maintenance dans le calcul des extensions de garantie

Bouguerra, Soumaya 14 December 2012 (has links)
Nous nous proposons dans ce travail de développer des modèles mathématiques pour étudier l'opportunité apportée par la période de garantie étendue pour les deux cas unidimensionnel et bidimensionnel aussi bien pour le consommateur que pour le fabricant du produit pour différentes situations. Nous exprimerons pour cela le coût total moyen encouru le long du cycle de vie du produit, ceci pour les deux points de vue : celui du consommateur et celui du fabriquant. Nous considèrerons également différentes options concernant les politiques de maintenance à adopter (faire de la maintenance préventive ou non) pour le produit durant les périodes suivantes : la période de garantie de base, la période de garantie étendue et la période post-garantie se terminant à la fin du cycle de vie du produit. Nous exprimerons pour cela le coût total moyen encouru le long du cycle de vie du produit pour les points de vue consommateur et fabricant. Pour tester les performances du modèle analytique, des calculs numériques ont été effectués afin de déterminer la zone de compromis pour la garantie étendue / In this study mathematical models are developed to study the opportunity provided by the extended warranty period for both two-dimensional and one-dimensional case for the consumer and the manufacturer of the product for different situations. We will express the total average cost incurred along the life cycle of the product, this to the two points of view: the consumer and the manufacturer. Also we will consider various options regarding maintenance policies to adopt (performing preventive maintenance or not) for the product during the following periods: the basic warranty period, the extended warranty period and post-warranty at the end of the life cycle of the product. We will express the total average cost incurred along the life cycle of the product for the consumer and the manufacturer. To test the performance of the analytical model, numerical calculations were performed to determine the area of compromise for the extended warranty

Page generated in 0.0335 seconds