• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 33
  • 1
  • 1
  • Tagged with
  • 181
  • 71
  • 68
  • 67
  • 63
  • 48
  • 47
  • 33
  • 15
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

A robust void-finding algorithm using computational geometry and parallelization techniques

Schkolnik Müller, Demian Aley January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias, Mención Computación / El modelo cosmológico actual y más aceptado del universo se llama Lambda Cold Dark Matter. Este modelo nos presenta el modelo más simple que proporciona una explicación razonablemente buena de la evidencia observada hasta ahora. El modelo sugiere la existencia de estructuras a gran escala presentes en nuestro universo: Nodos, filamentos, paredes y vacíos. Los vacíos son de gran interés para los astrofísicos ya que su observación sirve como validación para el modelo. Los vacíos son usualmente definidos como regiones de baja densidad en el espacio, con sólo unas pocas galaxias dentro de ellas. En esta tesis, presentamos un estudio del estado actual de los algoritmos de búsqueda de vacíos. Mostramos las diferentes técnicas y enfoques, e intentamos deducir la complejidad algorítmica y el uso de memoria de cada void-finder presentado. Luego mostramos nuestro nuevo algoritmo de búsqueda de vacíos, llamado ORCA. Fue construido usando triangulaciones de Delaunay para encontrar a los vecinos más cercanos de cada punto. Utilizando esto, clasificamos los puntos en tres categorías: Centro, borde y outliers. Los outliers se eliminan como ruido. Clasificamos los triángulos de la triangulación en triángulos de vacíos y centrales. Esto se hace verificando un criterio de distancia, y si los triángulos contienen outliers. Este método nos permite crear un algoritmo de búsqueda de vacíos rápido y robusto. Adicionalmente, se presenta una versión paralela del algoritmo.
142

MONOS: Multiplicity Of Northern O-type Spectroscopic systems

Trigueros Páez, Emilio 30 July 2021 (has links)
Las estrellas masivas son el motor químico y mecánico de la evolución galáctica. Una característica de estas estrellas es su multiplicidad. La mayoría, sino todas, nacen en sistemas binarios o de mayor orden y las interacciones con la(s) compañera(s) ocurren para aproximadamente el 70% de las estrellas masivas. Estas interacciones resultan en importantes desviaciones del camino evolutivo estándar. Por tanto, ningún estudio de dichas estrellas estaría completo sin tener en cuenta los efectos de la multiplicidad. Este trabajo de tesis representa los primeros pasos del proyecto MONOS en el que tratamos de una forma homogénea y consistente el estudio de las estrellas tipo O binarias en el hemisferio norte. Para lograr este objetivo se han realizado diversas campañas observaciones en observatorios de primer nivel y empleado diferentes técnicas (Espectroscopía, Lucky Imaging, Lucky spectroscopy y Fotometría). Se presenta el estudio astrométrcio y la clasificación espectral de los 92 sistemas con órbitas publicadas y la revisión de los parámetros orbitales de los 35 sistemas SB1 (de los cuales 8 se ha demostrado que no lo son). / FPI: BES-2016-078425; Proyecto: AYA 2015-68 0012-C2-1/2-P; Proyecto: AYA 2016-75 931-C2-2-P; Proyecto: PGC2018-095 049-B-C22
143

Population Synthesis of isolated Neutron Stars

Gullón Juanes, Miguel 18 December 2015 (has links)
Neutron Stars present a wide variety from the observational point of view. The advent of new and powerful detectors and instruments has opened a new era where the classical picture of neutrons stars seen as radio-pulsars has been modified with new classes such as magnetars, X-ray Isolated Neutron Stars (XINSs) or Central Compact Objects (CCOs) in Supernova Remnants . In addition to the more than 2500 sources detected in the radio band, more than two hundred have also been detected as X-ray and gamma-ray sources. This number is expected to increase in the near future. Despite this apparent diversity, some studies demand a theory able to explain the different classes in terms of the same physical scenario (Kaspi, 2010), in which the evolution of the magnetic field appears to play an important role (Viganò et al., 2013). The Population Synthesis of Neutron Stars, which is the central subject of this thesis, is an interesting approach to understand the problem, as both intrinsic properties and observational biases are taken into account. These technique is based on Monte Carlo methods, applied to simulate the whole population of neutron stars. The main objective of the thesis has been to perform a multi-wavelength study of the different populations of Neutron Stars focusing in the effects of magneto-thermal evolution. This report consists of a global summary of the objectives, methods and main results of the thesis. It is structured as follows. The first chapter gives an introduction to Neutron Stars. Chapter two is a description of the method of Population Synthesis of Neutron Stars. In chapter three a global discussion of the main results is presented. Chapter four closes the report with the conclusions. An appendix is also included which constitutes a description of a method based on the pulsar current analysis.
144

High-mass X-ray Binaries: X-raying the winds

Giménez García, Ángel 17 December 2015 (has links)
No description available.
145

La cartografía náutica antigua como fuente de información para la investigación histórica : semiología documental y recuperación de conocimiento

Antolino Ibáñez, Andrés 11 January 2016 (has links)
El mundo tal y como lo conocemos hoy día se ha desarrollado y ha estructurado sus bases, tanto comerciales como científicas y de otras índoles, sobre el fenómeno de Internet. Ello ha producido que la mayoría de las fuentes que se encuentran disponibles en la red, tengan un crecimiento exponencial en cuanto a consultas se refiere, mucho más elevado que aquellas que no se encuentran en dicho canal. Una de las fuentes que aún no ha sido muy aprovechada en este sentido es la información cartográfica. Ello se debe a un cúmulo de razones entre las que se encuentran: el reciente interés emergente hacia el estudio de dicho tipo de información desde la perspectiva documental, y además la carencia de una base científica sólida, acorde a los nuevos tiempos y circunstancias, sobre la que estructurar los procesos de búsqueda y recuperación de la información. Estudios previos demuestran el interés, desde el punto de vista investigador, por la cartografía desde sus diversos métodos de estudio (historiográfico, artístico, cultural, entre otros), pero son escasas las publicaciones que se acercan a dicha disciplina desde un aspecto documental para la recuperación de su información. Por ello, este trabajo se plantea la creación de una metodología de asignación de metadatos para posibilitar la recuperación del contenido de la cartografía histórica. Además, se pretende aplicar dicha metodología al fondo cartográfico situado en el Archivo Naval de Cartagena (concretamente a la sección de cartas extranjeras relacionadas con el continente americano), posibilitando un aumento de su visibilidad y accesibilidad. Para lograrlo, se seleccionaron en primer lugar las cartas náuticas que compondrían la muestra. Se les realizaron procesos documentales técnicos tales como organización, clasificación y digitalización. Además cada una de ellas fue estudiada meticulosamente para extraer todos los datos referentes al contenido y producción de la misma, los cuales fueron recogidos en una base de datos creada expresamente para ello. Una vez obtenidos los datos, se contrastaron y escogieron unos indicadores que conformarían la lista de metadatos. En total se han obtenido 51 elementos divididos en dos categorías: los 30 primeros están relacionados con el contenido de la cartografía náutica; los 21 restantes conciernen a la generación y publicación del documento en sí. Además, al aplicar la metodología sobre el fondo del Archivo Naval hallamos que está compuesto por 597 cartas extranjeras referentes al continente americano, las cuales contienen 666 cartuchos, lo que origina un total de 1.263 unidades documentales, cuyo rango de publicación varía entre 1817 y 1978. Según sus escalas se distribuyen en: cartas de arrumbamiento 41%, navegación costera 23’2%, portulanos 21’5%, de recalada 13’4% y generales 0’9%. La publicación de dicho fondo recae en un 45’2% sobre Reino Unido, seguido por Estados Unidos 29’3%, Chile 19’6%, Canadá 5’2% y finalmente Francia con 0’7%. Se identifican los órganos editores entre los que se encuentra instituciones públicas (Hydrographic Office of the Admiralty, Oficina Hidrográfica de Chile, entre otras) y privadas (James Imray and Son; Imray, Laurie, Norie & Wilson, Ltd.; etc.). Además se ha determinado la existencia de cartas basadas en otros planos, cuyo montante corresponde al 26’76% de la muestra, de las cuales el 9’47% corresponde a cartografía que ha sido reproducida en base a planos de origen español. Por tanto, este estudio demuestra la necesidad de establecer un sistema de recuperación de información para documentos cartográficos navales, así como la eficacia de la implementación del sistema de metadatos creado para tal propósito, habiendo obtenido gracias a él toda la información perteneciente al fondo cartográfico del Archivo Naval de Cartagena seleccionado como muestra, de una manera pertinente y exhaustiva. / Nowadays, the majority of the processes are based on the Internet. This means that the most popular documents are those located on the net. The cartographic information is not very widespread in this sense due to several reasons: first, the recent interest toward this science from the documentary perspective, and secondly, the absence of a solid scientific basis, among others. While a number of studies demonstrates the growing interest among researchers to the cartographic science from their different points of view (historiographical, artistic, cultural, etc.), there are few publications in this science from a documentative aspect about information retrieval. This document takes as a purpose the recovery and study of the foreign cartographic fund relating to the American continent placed in the Naval Archive of Cartagena, with the goal of developing a list of specific metadata related to this document format. Processes of organization, digitalization and cataloguing have been made in order to achieve the goal mentioned above. In addition, a detailed study of the elements has been made that compose every documentary unit, resulting in a list of 51 metadata, 30 of them related to the content of cartography and 21 elements concerning the production of the document. The results show that the Naval Archive of Cartagena is composed of 597 foreign nautical charts relating to the American continent, which contain 666 cartridges, giving a total of 1263 documentary units, whose publication range varies between 1817 and 1978. According to their scales are distributed in: General charts (41%), Coast charts (23'2%), Intracoastal Waterway charts (21'5%), Harbor charts (13'4%) and Sailing charts (0'9%). The cartography of the fund has been published according to the following percentages: United Kingdom (45'2%), United States (29'3%), Chile (19'6%), Canada (5'2%) and finally France (0'7%). The editors of these charts are divided between public institutions (Hydrographic Office of the Admiralty, Oficina Hidrográfica de Chile, etc.) and private companies (James Imray and Son; Imray, Laurie, Norie & Wilson, Ltd.; etc.). Furthermore, the results determine that there is a significant number of charts which have been based on the other maps. The cartography that is related to this principle corresponds to the 26'76% of the sample, of which the 9'47% are maps that have been reproduced from Spanish charts. As has been demonstrated, this new methodological proposal allows the exhaustive description of this documentary typology, nautical charts, making easier its recovery in the current digital information channels.
146

Evaluación y propuesta de metodologías de clasificación a partir del procesado combinado de datos LiDAR e imágenes aéreas georreferenciadas

Martínez Blanco, Mª Pilar 05 February 2016 (has links)
En las últimas décadas la tecnología LiDAR, Light Distance And Ranging, ha contribuido a representar la superficie terrestre de manera masiva constituyendo una revolución en el ámbito de las ciencias afines de la Tierra. El volumen de datos capturados justifica la necesidad de establecer metodologías que permitan la clasificación de las nubes de puntos con el objeto de facilitar su tratamiento. Con este fin, se propone una metodología basada en la minería de datos, concretamente centrada en el algoritmo de Random Forest, para clasificar esos puntos según su uso cartográfico en tres categorías: edificaciones, vías de comunicación y vegetación. Los resultados demuestran que se trata de una metodología adecuada para la clasificación de los puntos en edificaciones y zonas con vegetación, debiendo experimentar nuevos procedimientos para la predicción de las vías de comunicación. / In the past few decades, LIDAR technology, Light Distance and Ranging, has contributed to represent the land surface in a massive way. It constitutes a revolution in the field of Earth sciences. The volume of the captured data justifies the need to develop methodologies that allow for the classification of the point clouds, with the object of facilitating its treatment. For this purpose, a methodology based on data mining is proposed, specifically focused on the Random Forest algorithm. It sets out to classify these points according to their mapping use at three categories: buildings, transport networks and vegetation. The results show that this is an appropriate methodology for the classification of the points in buildings and areas with vegetation. It should experiment with new procedures for the prediction of the transport networks.
147

Wideband Microwave Circuits for Radioastronomy Applications. Circuitos de microondas de banda ancha para aplicaciones de radioastronomía

Villa Benito, Enrique 21 November 2014 (has links)
El estudio de la radiación del Fondo Cósmico de Microondas como principal evidencia del Big Bang como teoría de origen del Universo lleva consigo el desarrollado de receptores de muy alta sensibilidad y ancho de banda en la banda de ondas milimétricas. En esta tesis, se desarrolla el diseño e integración del receptor de la banda de 26 a 36 GHz del instrumento QUIJOTE (Q-U-I JOint TEnerife) que está basado en la conmutación de estados a través de conmutadores de fase de 180º y de 90º. Los circuitos conmutadores deben proporcionar una diferencia de fase plana, de 180º o de 90º respectivamente, en el rango de frecuencias del receptor. Además, en esta tesis se desarrolla el diseño de detectores a diodo, que deben proporcionar la conversión de la potencia de la señal de microondas a niveles de tensión a su salida, para lo que utilizan diodos Schottky. A su vez se analiza el comportamiento de circuitos y dispositivos discretos (diodos) con el cambio de la temperatura de operación, estudiando sus variaciones. Por último, para el desarrollo de los circuitos ha sido necesario el modelado de diodos de microondas, tanto Schottky como PIN, para su utilización en los circuitos y la operación de los circuitos a temperatura ambiente y a temperatura criogénica (alrededor de 15 K). / The analysis of the Cosmic Microwave Background radiation as main evidence of the Big Bang theory involves the development of very high sensitivity receivers and broadband working in millimetre-wave frequencies. In this thesis, the 26 to 36 GHz frequency band QUIJOTE (Q-U-I JOint TEnerife) instrument receiver is designed and integrated, which is based on phase switching using 180º and 90º phase switches. The phase switching circuits must ensure a flat phase difference, 180º or 90º respectively, in the whole frequency range covered by the receiver. Besides, microwave detectors based on Schottky diode are developed which convert the power of the microwave signal into output voltages. The behaviour and variations in performance of circuits and discrete devices are also analysed as a function of the working physical temperature. Finally, the modelling of microwave diodes, such as Schottky and PIN, is described, which are intended for their use on the design stage of the circuits at room and cryogenic (around 15 K) temperatures.
148

Polvo Frío y Gas Molecular en la Región N11 de la Nube Grande de Magallanes

Herrera Contreras, Cinthya Natalia January 2010 (has links)
No description available.
149

Finding periodicities in astronomical light curves using information theoretic learning

Huijse Heise, Pablo Andrés January 2014 (has links)
Doctor en Ingeniería Eléctrica / The analysis of time-variable astronomical phenomena is of great interest as it helps to improve our understanding of the structure and topology of our Universe, the mechanisms of galaxy and stellar evolution, etc. The basic tool to study variability in the sky is the light curve. Light curves are time series of stellar brightness and their analysis reveals key information about the physics behind the variable phenomena. Periodic variable stars are particularly interesting. Periodic variable stars are used to estimate the size and distance-scales of our Universe, and the period is a key parameter for stellar parameter estimation, stellar classification and exoplanet detection. The precise estimation of the period is critical in order to accomplish these scientific tasks. Astronomy is experiencing a paradigm change due to the extent volumes of data generated by current astronomical surveys. In less than 10 years, hundreds of Petabytes of astronomical images and time series catalogs will be produced. Conventional astronomy does not possess the tools required for this massive data mining operation. Nowadays there is a growing need for methods with solid statistical background to do automatic astronomical time series analysis. These methods need to be robust, fully-automated and computationally efficient. In this doctoral research I developed methods for periodicity detection and period estimation in light curves that are based on information theoretic concept of correntropy and advanced signal processing techniques. These methods are intended for automatic and efficient periodic light curve discrimination in large astronomical databases. Correntropy is a generalization of the conventional correlation to higher order statistics. In this thesis I propose the slotted correntropy estimator, the correntropy kernelized periodogram (CKP) and the correntropy non-negative matrix factorization spectrum (CNMFS). The slotted correntropy extends correntropy to unevenly sampled time series such as light curves. The CKP is a generalized periodogram that can be computed directly from the samples without regards on their sampling. The CNMFS is a high resolution spectrum that is localized on the fundamental frequency of the process. The results presented in this thesis show that information theoretic based criteria perform better than conventional methods used in astronomy such as the LS periodogram, analysis of variance, string length and the slotted autocorrelation function (second-order methods). Including the higher-order moments of the time series into the estimation makes the proposed information-theoretic methods more robust against noise and outliers, giving them the upper hand in term of the precision of the detected periods. The proposed methods are also general as they do not pose any assumption on the underlying periodic signal (e.g. sum of sine-waves), and can be adapted heuristically (CKP) or automatically (CNMFS) to different periodic light curve shapes. The proposed methods are less prone to return a harmonic, sub-harmonic or an alias of the underlying period, a usual problem with conventional methods. The results also show that the proposed methods are more robust and less dependant on the number of samples and the time span of the light curve, i.e. the period can be recovered even if few samples or only a short piece of the light curve is available. This suggests that these methods may outperform conventional methods for early or online periodicity discrimination on surveys that are currently operating (VVV, DECam). El análisis de fenómenos astronómicos variables en el tiempo es de gran interés científico pues ayuda a mejorar nuestro entendimiento de la estructura y topología de nuestro Universo, los mecanismos de evolución estelar, etc. La herramienta básica para estudiar variabilidad celeste es la curva de luz. Las curvas de luz son series de tiempo de brillo estelar y su análisis revela información clave sobre los procesos físicos tras el fenómeno variable. Las estrellas variables periódicas son particularmente interesantes, pues se usan para estimar el tamaño y las escalas de distancia en nuestro Universo, y su período es un parámetro clave para la estimación de otros parámetros estelares como la masa y el radio, para la clasificación estelar y la detección de exoplanetas. Una estimación precisa del período es crítica para el cumplimiento de estas tareas científicas. La astronomía está experimentando un cambio de paradigma debido a los extensos volúmenes de datos generados por los sondeos astronómicos actuales. En menos de 10 años, se producirán cientos de Petabytes de imágenes astronómicas y catálogos de series tiempo. La astronomía convencional no posee las herramientas que se requieren para esta operación masiva de minería de datos. Hoy en día existe una creciente necesidad por métodos con sólidas bases estadísticas para realizar análisis automático de series de tiempo astronómicas. Los métodos han de ser robustos, completamente automáticos y computacionalmente eficientes. En esta investigación doctoral he desarrollado métodos para detección de periodicidad y estimación de período en curvas de luz que están basados en conceptos de teoría de la información de correntropía y técnicas avanzadas de procesamiento de señales. Estos métodos fueron desarrollados teniendo en mente el procesamiento eficiente de grandes bases de datos de curvas de luz. La correntropía es una generalización de la correlación convencional a estadísticos de alto orden. En esta tesis propongo la correntropía ranurada, el periodograma kernelizado de correntropía (CKP) y el espectro de correntropía mediante factorización no-negativa de matrices (CNMFS). La correntropía ranurada extiende la correntropía a series de tiempo con muestreo irregular tales como las curvas de luz. El CKP es un periodograma generalizado que puede computarse directamente de las muestras sin importar su muestreo. El CNMFS es un espectro de alta resolución que está localizado en la frecuencia fundamental del proceso. Los resultados presentados en esta tesis muestran que los criterios basados en teoría de la información tienen un desempeño superior a los métodos convencionales usados en astronomía tales como el periodograma LS, análisis de varianza, string lengh y la función de correlación ranurada (métodos de segundo orden). Incluir los momentos de alto orden de la serie de tiempo hace que los métodos propuestos sean más robustos al ruido y a los outliers, lo cual a su vez se traduce en una mayor precisión en la detección de período. Los métodos propuestos son generales, en el sentido de que no hacen supuestos sobre la señal periódica subyacente (e.g. suma de señales sinusoidales), y pueden ser adaptados heurísticamente (CKP) o automáticamente (CNMFS) a diferentes tipos de periodicidad. Los métodos propuestos son menos propensos a entregar un armónico, sub-armónico o alias del período subyacente, un problema usual de los métodos convencionales. Los resultados muestran que los métodos propuestos son más robustos y menos dependientes del número de muestras y del tiempo total de la curva de luz, es decir, el período puede ser recuperado incluso si pocas muestras o un segmento corto de la curva de luz está disponible. Esto sugiere que los métodos propuestos pueden funcionar mejor que los métodos convencionales para discriminación temprana u online de periodicidad en sondeos que están operando actualmente (VVV, DECam).
150

Centro Astronómico de Nasca / Astronomical Center of Nasca

Truyenque Berrocal, Krissel Selicar 01 December 2018 (has links)
El presente informe abarca la fase de investigación para el proyecto de tesis denominado “Centro Astronómico de Nasca” que se ubica en el desierto costero de Nasca, en el departamento de Ica, al sur del Perú. La investigación se ha enfocado en el análisis del entorno, que comprende tanto las condiciones meteorológicas como factores culturales y patrimoniales con el objetivo principal de poner en valor una zona de gran riqueza paisajística y potencial turístico, que en la actualidad se ve afectada por la diversos factores externos. El énfasis arquitectónico del proyecto se basa en la reinterpretación de la arquitectura y simbología presente en los vestigios de la cultura Nasca y busca recuperar la noción de la forma arquitectónica como una herramienta de interacción directa con el espacio. / This report covers the research phase for the thesis project called "Astronomical Center of Nasca" located in Nasca’s coastal desert which lies on the department of Ica, in southern Peru. The research has focused on the analysis of the environment, which includes both meteorological conditions and cultural and heritage factors with the main objective of enhancing the value of an area of great scenic richness and tourist potential, which is currently affected by the various external factors. The architectural emphasis of the project is based on the reinterpretation of the architecture and symbols present in the vestiges of the Nasca culture and seeks to recover the notion of architectural form as a tool for direct interaction with space. / Tesis

Page generated in 0.0293 seconds