111 |
Inget att dölja, men mycket att frukta : En analys av Delbetänkandet om utökade möjligheter att använda preventiva tvångsmedel, SOU 2022:52 / Nothing to hide, but much to fear : An analysis of the interim report on extending the use of preventive coercive measures, SOU 2022:52Holmlund Taheripour, Anna January 2022 (has links)
No description available.
|
112 |
La cartografía náutica antigua como fuente de información para la investigación histórica : semiología documental y recuperación de conocimientoAntolino Ibáñez, Andrés 11 January 2016 (has links)
El mundo tal y como lo conocemos hoy día se ha desarrollado y ha estructurado sus bases, tanto comerciales como científicas y de otras índoles, sobre el fenómeno de Internet. Ello ha producido que la mayoría de las fuentes que se encuentran disponibles en la red, tengan un crecimiento exponencial en cuanto a consultas se refiere, mucho más elevado que aquellas que no se encuentran en dicho canal. Una de las fuentes que aún no ha sido muy aprovechada en este sentido es la información cartográfica. Ello se debe a un cúmulo de razones entre las que se encuentran: el reciente interés emergente hacia el estudio de dicho tipo de información desde la perspectiva documental, y además la carencia de una base científica sólida, acorde a los nuevos tiempos y circunstancias, sobre la que estructurar los procesos de búsqueda y recuperación de la información. Estudios previos demuestran el interés, desde el punto de vista investigador, por la cartografía desde sus diversos métodos de estudio (historiográfico, artístico, cultural, entre otros), pero son escasas las publicaciones que se acercan a dicha disciplina desde un aspecto documental para la recuperación de su información. Por ello, este trabajo se plantea la creación de una metodología de asignación de metadatos para posibilitar la recuperación del contenido de la cartografía histórica. Además, se pretende aplicar dicha metodología al fondo cartográfico situado en el Archivo Naval de Cartagena (concretamente a la sección de cartas extranjeras relacionadas con el continente americano), posibilitando un aumento de su visibilidad y accesibilidad. Para lograrlo, se seleccionaron en primer lugar las cartas náuticas que compondrían la muestra. Se les realizaron procesos documentales técnicos tales como organización, clasificación y digitalización. Además cada una de ellas fue estudiada meticulosamente para extraer todos los datos referentes al contenido y producción de la misma, los cuales fueron recogidos en una base de datos creada expresamente para ello. Una vez obtenidos los datos, se contrastaron y escogieron unos indicadores que conformarían la lista de metadatos. En total se han obtenido 51 elementos divididos en dos categorías: los 30 primeros están relacionados con el contenido de la cartografía náutica; los 21 restantes conciernen a la generación y publicación del documento en sí. Además, al aplicar la metodología sobre el fondo del Archivo Naval hallamos que está compuesto por 597 cartas extranjeras referentes al continente americano, las cuales contienen 666 cartuchos, lo que origina un total de 1.263 unidades documentales, cuyo rango de publicación varía entre 1817 y 1978. Según sus escalas se distribuyen en: cartas de arrumbamiento 41%, navegación costera 23’2%, portulanos 21’5%, de recalada 13’4% y generales 0’9%. La publicación de dicho fondo recae en un 45’2% sobre Reino Unido, seguido por Estados Unidos 29’3%, Chile 19’6%, Canadá 5’2% y finalmente Francia con 0’7%. Se identifican los órganos editores entre los que se encuentra instituciones públicas (Hydrographic Office of the Admiralty, Oficina Hidrográfica de Chile, entre otras) y privadas (James Imray and Son; Imray, Laurie, Norie & Wilson, Ltd.; etc.). Además se ha determinado la existencia de cartas basadas en otros planos, cuyo montante corresponde al 26’76% de la muestra, de las cuales el 9’47% corresponde a cartografía que ha sido reproducida en base a planos de origen español. Por tanto, este estudio demuestra la necesidad de establecer un sistema de recuperación de información para documentos cartográficos navales, así como la eficacia de la implementación del sistema de metadatos creado para tal propósito, habiendo obtenido gracias a él toda la información perteneciente al fondo cartográfico del Archivo Naval de Cartagena seleccionado como muestra, de una manera pertinente y exhaustiva. / Nowadays, the majority of the processes are based on the Internet. This means that the most popular documents are those located on the net. The cartographic information is not very widespread in this sense due to several reasons: first, the recent interest toward this science from the documentary perspective, and secondly, the absence of a solid scientific basis, among others. While a number of studies demonstrates the growing interest among researchers to the cartographic science from their different points of view (historiographical, artistic, cultural, etc.), there are few publications in this science from a documentative aspect about information retrieval. This document takes as a purpose the recovery and study of the foreign cartographic fund relating to the American continent placed in the Naval Archive of Cartagena, with the goal of developing a list of specific metadata related to this document format. Processes of organization, digitalization and cataloguing have been made in order to achieve the goal mentioned above. In addition, a detailed study of the elements has been made that compose every documentary unit, resulting in a list of 51 metadata, 30 of them related to the content of cartography and 21 elements concerning the production of the document. The results show that the Naval Archive of Cartagena is composed of 597 foreign nautical charts relating to the American continent, which contain 666 cartridges, giving a total of 1263 documentary units, whose publication range varies between 1817 and 1978. According to their scales are distributed in: General charts (41%), Coast charts (23'2%), Intracoastal Waterway charts (21'5%), Harbor charts (13'4%) and Sailing charts (0'9%). The cartography of the fund has been published according to the following percentages: United Kingdom (45'2%), United States (29'3%), Chile (19'6%), Canada (5'2%) and finally France (0'7%). The editors of these charts are divided between public institutions (Hydrographic Office of the Admiralty, Oficina Hidrográfica de Chile, etc.) and private companies (James Imray and Son; Imray, Laurie, Norie & Wilson, Ltd.; etc.). Furthermore, the results determine that there is a significant number of charts which have been based on the other maps. The cartography that is related to this principle corresponds to the 26'76% of the sample, of which the 9'47% are maps that have been reproduced from Spanish charts. As has been demonstrated, this new methodological proposal allows the exhaustive description of this documentary typology, nautical charts, making easier its recovery in the current digital information channels.
|
113 |
Evaluación y propuesta de metodologías de clasificación a partir del procesado combinado de datos LiDAR e imágenes aéreas georreferenciadasMartínez Blanco, Mª Pilar 05 February 2016 (has links)
En las últimas décadas la tecnología LiDAR, Light Distance And Ranging, ha contribuido a representar la superficie terrestre de manera masiva constituyendo una revolución en el ámbito de las ciencias afines de la Tierra.
El volumen de datos capturados justifica la necesidad de establecer metodologías que permitan la clasificación de las nubes de puntos con el objeto de facilitar su tratamiento. Con este fin, se propone una metodología basada en la minería de datos, concretamente centrada en el algoritmo de Random Forest, para clasificar esos puntos según su uso cartográfico en tres categorías: edificaciones, vías de comunicación y vegetación.
Los resultados demuestran que se trata de una metodología adecuada para la clasificación de los puntos en edificaciones y zonas con vegetación, debiendo experimentar nuevos procedimientos para la predicción de las vías de comunicación. / In the past few decades, LIDAR technology, Light Distance and Ranging, has contributed to represent the land surface in a massive way. It constitutes a revolution in the field of Earth sciences.
The volume of the captured data justifies the need to develop methodologies that allow for the classification of the point clouds, with the object of facilitating its treatment. For this purpose, a methodology based on data mining is proposed, specifically focused on the Random Forest algorithm. It sets out to classify these points according to their mapping use at three categories: buildings, transport networks and vegetation.
The results show that this is an appropriate methodology for the classification of the points in buildings and areas with vegetation. It should experiment with new procedures for the prediction of the transport networks.
|
114 |
Thermal diagnostics experiments for LISA PathfinderGibert Gutiérrez, Ferran 23 February 2016 (has links)
The LISA Pathfinder project is an ESA/NASA technology demonstrator mission that must test the critical instrumentation required for a future space-borne gravitational wave observatory based on the LISA design. The satellite, to be launched by December 2015, carries two free-floating test masses and an interferometer that measures the relative distance between them. The main objective of the satellite is to demonstrate that the residual acceleration noise between the masses is lower than 3e-14 m/s^2/sqrt(Hz) in the band between 1-30 mHz. To achieve such a high sensitivity, the instrument is provided with an accurate control system that allows to sense and actuate on any of the 18 degrees of freedom of the system composed of the two test masses and the spacecraft, avoiding interfering the scientific measurements. The whole instrument is called the LISA Technology Package (LTP).
At such low frequencies, the system is exposed to a broad list of external perturbations that eventually limit the sensitivity of the instrument. Amongst them, temperature fluctuations at different spots of the satellite can end up distorting the motion of the masses and the interferometer readouts through different mechanisms. In order to measure such fluctuations and to characterise their contribution to the system sensitivity, the satellite is equipped with a thermal diagnostic subsystem composed of a series of heaters and high precision temperature sensors. Three different kind of thermal perturbation mechanisms are to be studied with such a subsystem: (1) thermal effects inducing direct forces and torques to the test masses due to the presence of temperature gradients, (2) thermo-elastic distortion due to temperature fluctuations in the structure hosting the test masses and the interferometer and (3) thermo-optical distortion of two optical parts located outside the ultra-stable optical bench. This thesis focuses on the design of the experiments aimed to study the first two mechanisms. These experiments essentially consist in the injection of a series of heat loads near each of the thermal-sensitive locations in order to stress their associated thermal mechanism. Such an induced perturbation is visible with high SNR at both the optical measurements and the nearby temperature sensors, and allows to derive coupling coefficients for each of the effects or, at least, bound their contribution to the acceleration noise.
The analysis of the impact of forces and torques on the masses has followed two approaches: first, a simulator environment has been designed and implemented to estimate the impact of any kind of heat signal applied close to the test masses and, secondly, a test campaign has been carried out by means of a LTP-test mass replica installed in a torsion pendulum facility. Regarding the simulator, a state-space model has been developed including a thermal system of the whole spacecraft and a specific design for each of the mechanisms that generate forces and torques from temperature gradients: the radiometer effect, the radiation pressure effect and asymmetric outgassing. This model has been integrated to a general simulator of the whole LTP performance, what has allowed to simulate the whole chain between the heater activation and the final impact to the closed-loop performance of the LTP. In parallel, the experimental campaign by means of a torsion pendulum facility of the University of Trento has allowed to characterise the impact of each of the effects in different scenarios of absolute temperature and pressure.
On the other hand, the analysis of thermo-elastic noise in the LTP is based on the results obtained during a spacecraft Thermal Vacuum test campaign. In this test, a series of heater activations in the suspension struts that attach the LTP core assembly to the satellite structure allowed to bound the impact of temperature fluctuations at these locations and to characterise the main mechanical distortion mode associated to them. / LISA Pathfinder és una missió de la ESA amb participació de la NASA que pretén validar la instrumentació necessària per a un futur observatori espacial d'ones gravitatòries basat en el model LISA. Amb data de llançament pel desembre de 2015, el satèl·lit porta dues masses en caiguda lliure i un interferòmetre que mesura la seva distància relativa. L'objectiu principal és aconseguir mesurar una acceleració residual entre masses per sota de 3e-14 m/s^2/sqrt(Hz) en la banda entre 1 i 30 mHz, fet que requereix una precisió de picòmetres en la mesura. Per altra banda, un sofisticat sistema de control regula els 18 graus de llibertat del sistema conformat per les dues masses i el satèl·lit sense pràcticament afectar la mesura principal. El conjunt d'instrumentació que forma part d'aquest experiment s'anomena LISA Technology Package (LTP). Les freqüències d'operació del LTP, a la banda el mili-Hertz, exposen el sistema a una sèrie de pertorbacions externes difícils d'aïllar i que eventualment podrien limitar la precisió de l'instrument. Entre d'altres, fluctuacions de temperatura en punts concrets del sistema poden alterar les trajectòries de les masses i afectar la precisió de l'interferòmetre mitjançant diferents mecanismes tèrmics, per la qual cosa el satèl·lit porta un subsistema de diagnòstics tèrmics format per una xarxa de sensors de temperatura i escalfadors estratègicament col·locats. La finalitat d'aquest subsistema és estudiar tres tipus de pertorbacions tèrmiques mitjançant diferents experiments: (1) les forces i moments que perceben les masses quan estan exposades a gradients tèrmics, (2) les distorsions termo-elàstiques induïdes per fluctuacions de temperatura a l'estructura on es troben les masses i l'interferòmetre i (3) les distorsions termo-òptiques de dos components òptics que es troben fora de l'ultra-estable banc òptic de l'interferòmetre. D'entre tots aquests, aquesta tesi es centra en el disseny associat als experiments (1) i (2). Cada experiment consisteix principalment en la inducció de càrregues tèrmiques a llocs concrets que forcen una pertorbació tèrmica diferent. L'impacte de la pertorbació és visible amb alt SNR (Signal-to-Noise Ratio) tan a l'interferòmetre com als sensors tèrmics propers, cosa que permet extreure els coeficients principals de distorsió de cada cas. L'anàlisis dels efectes tèrmics que provoquen forces directament sobre les masses s'ha fet en dues parts: en primer lloc s'ha desenvolupat un simulador que permet estimar la dinàmica de les masses davant de qualsevol activació dels escalfadors propers i, en segon lloc, s'ha dut a terme una campanya experimental amb una rèplica de les masses de test i els diagnòstics tèrmics que està instal·lada en un pèndol de torsió de la Universitat de Trento. Pel que fa al simulador, s'ha implementant un model d'espai d'estats que inclou un model tèrmic de tot el satèl·lit i submodels per a cada un dels mecanismes que poden generar forces i moments sobre les masses, que són l'efecte radiomètric, la pressió per radiació i el flux de desgasificació (outgassing) de les superfícies. Aquest model s'ha integrat en un simulador global del LTP, cosa que permet estudiar l'impacte que una activació tèrmica acaba induïnt a l'interferòmetre i en els llaços de control. D'altra banda, la campanya experimental ha permès caracteritzar les contribucions de cada un d'aquests efectes tèrmics en diferents condicions de temperature i pressió. Pel que fa a l'anàlisi de la distorsió termo-elàstica, la investigació s'ha centrat en els resultats obtinguts durant una campanya de proves on es va sotmetre el satèl·lit sencer en condicions realistes de pressió, temperatura i radiació solar. Breus activations dels escalfadors col·locats a prop de les barrers que subjecten la part principal del LTP han permès caracteritzar el mecanisme de distorsió principal i definir un límit superior en l'acoblament entre fluctuacions de temperatura en aquesta l'estructura i l'interferòmetre.
|
115 |
ISFAA : Implicit SPH for astrophysical apllicationsEscartín Vigo, José Antonio 21 January 2016 (has links)
Computational simulation is one of the basic techniques of modern Astrophysics. The long-term time astrophysical processes cannot be treated with explicit approaches because that they are limited, in their maximum time step, by the restriction known as Courant-Friedrichs-Lewy Condition.
In order to use implicit approaches a system of coupled algebraic equations needs to be solved. It is composed by all the equations of each one of the discrete points of the model and the usual solution comes through a Newton-Raphson scheme. The computational cost substantially increases with the number of unknowns of the model. In implicit schemes the properties of the current time step depends on the values of the unknown variables at that time step, so everything has to be calculated simultaneously. The consequence is that all equations should be jointly solved inverting of a huge sparse matrix (it is a squared n*v matrix, being n the number of particles and v the number of independent variables of the system). Due to this restriction, historically the implicit hydrodynamics had been only applied to one-dimensional systems.
It would be very interesting to build an Implicit hydrocode taking advantage of the so called Smoothed Particle Hydrodynamics or SPH. This technique has been being applied successfully in astrophysics and cosmology and fluid physics. SPH integrates the dynamic fluid equations in each point of the Lagragian formalism (named particles because they have an associated mass) calculating speed, position, density and pressure as interpolations from neighbour particles. Unlike Eulerian methods the Lagragian approach does not need from a rectangular grid covering the integration domain. Therefore storage and computing time is not wasted in void regions. Fluids are decomposed in a set of particles where the numerical treatment of the three-dimensional movement derived from pressure and auto-gravity is easier.
The goal of this thesis is to describe the main features and the implementation of a new SPH code which uses implicit approach, called ISFAA (Implicit SPH for Astrophysical Applications). This code enlarges the previous work from "An Implicit Smooth Particle hydrodynamic Code", Knapp C. (2000) and recent developments of the SPH scheme (based on the variation principle), artificial viscosity, gravity and thermal conductivity.
Because of the huge effort which has to be invested to build and validate the new SPH code, it is pretended that in the future its use can be extended to a large number of scenarios. With this end a modular design has been implemented that allows to separate the code general treatment, the particular implementation of the basic evolutionary equations and the physical properties (equation of state, artificial viscosity, etc.). Furthermore, to find the solution of the equations' system, the library of parallel algorithms PARDISO, embodied in the library Intel MKL, has been used. Future improvements in these libraries will have a positive impact on the new code.
To validate the code and check each one of the physical ingredients, a set of basic tests (point-like explosion, The wall heating shock, Rayleigh-Taylor instabilities, Free-Fall collapse, etc) were run and analyzed as well as several tests incorporating gravity (Toy Star, stability of a solar mass star and a White Dwarf).
And finally, we show the evolution of a single quasi-static system. To handle with these scenarios we have built a slightly different implicit scheme, were velocities are not explicitly included in the equations of movement. The main aim of this tests is to demonstrate that an implicit quasi-hydrostatic scheme is able to work with time-steps many orders of magnitude large (10^4) than the characteristic current Courant time. / La simulación mediante ordenador es una de las herramientas básicas de la Astrofísica moderna. Los procesos de gran escala temporal son imposibles de tratar con enfoques explícitos ya que estos se encuentran limitados, en su paso de tiempo máximo, por la restricción conocida como condición de Courant-Friedrichs-Lewy. Para utilizar los enfoques implícitos se genera un sistema de ecuaciones algebraicas acopladas, habitualmente resuelto con un esquema de Newton-Raphson y compuesto por todas las ecuaciones de cada uno de los puntos de resolución del modelo. El coste computacional de resolución aumenta sustancialmente con el número de incógnitas que han de determinarse a cada paso de tiempo. Las propiedades del siguiente paso de tiempo dependen de los valores de las variables desconocidas en dicho paso de tiempo y por tanto todas han de ser calculadas simultáneamente. La consecuencia es que todo el sistema de ecuaciones se ha de resolver conjuntamente realizando la inversión de una matriz dispersa enorme (la matriz es cuadrada y tiene un tamaño de n*v, siendo n el numero de partículas y v el número de variables independientes del sistema). Debido a esta restricción, la hidrodinámica implícita históricamente ha sido aplicada a sistemas en una sola dimensión. Para su implementación multidimensional sería interesante utilizar un enfoque lagrangiano como el suavizado de partículas hidrodinámicas denominado "Smooth Particle Hydrodynamics" ó SPH. La técnica se viene aplicando con éxito al campo de la astrofísica, la cosmología y diferentes problemas de la física de fluidos. El SPH integra las ecuaciones de la dinámica de fluidos en cada punto del formalismo lagrangiano (denominado partícula por tener una masa asociada) calculando velocidad, posición, densidad y presión como una interpolación de los valores de las partículas vecinas. Los métodos lagrangianos, a diferencia de los eulerianos, no necesitan de una malla regular que cubra la totalidad del espacio de integración, por tanto, la memoria y el tiempo de cálculo no se desperdician en la resolución de espacios vacíos. Los fluidos se descomponen en un conjunto de partículas donde podemos tratar numéricamente de forma más sencilla el movimiento en tres dimensiones derivado de las fuerzas de presión y auto-gravedad. El objetivo de esta tesis es detallar las principales características y la implementación de un nuevo código SPH, con un enfoque implícito, al que hemos denominado ISFAA (Implicit SPH for Astrophysical Applications). Este código amplia el trabajo previo de Knapp. C., 2000 e incluye el esquema físico más actual del SPH (basado en el principio variacional), viscosidad artificial, gravedad y conductividad térmica. Dado el enorme esfuerzo que supone construir y validar un nuevo código SPH, se pretende que en el futuro su utilidad se extienda al mayor número posible de escenarios. Con este fin se ha optado por un diseño modular que separe el tratamiento general del código de la implementación concreta de ecuaciones evolutivas básicas y de las propiedades del material (ecuación de estado, viscosidad artificial, etc.). Además, para la resolución del sistema de ecuaciones se utiliza la biblioteca de algoritmos paralelos PARDISO, que incorpora la librería Intel MKL y que en el futuro tendrá mejoras que impactarán positivamente en el código. Para comprobar la corrección del código y probar cada uno de los ingredientes físicos, se especifican una serie de test básicos (Explosión puntual, The wall heating shock, inestabilidades de Rayleigh-Taylor, caída libre, etc.) y una serie de test con gravedad (Toy Star, estabilización de una estrella de masa solar y una enana blanca). Por último se muestra la evolución de un sistema cuasiestático, en el que las velocidades no se encuentran explícitamente en el modelo. Este test está orientado a demostrar que el código implícito podría aplicarse con éxito en estas situaciones, consiguiendo simular el sistema en largos intervalos temporales.
|
116 |
Análisis espacial colectivo como soporte a las decisiones espaciales : el sistema geoespacial de inteligencia colectiva = Collective spatial analysis as spatial decision-making support : the geospatial system of collective intelligenceCastillo Rosas, Juan Daniel 25 February 2016 (has links)
Capítols 1 i 7 escrits també en anglés / The spatial decision-making process for the purpose of planning, policies, plans, or territorial programs, is intimately tied to the concept of location in the respective geographical space, mainly because many aspects such as natural resources; raw materials, infrastructure, proximity to markets, weather, culture, safety and strategic areas, among others, can be determined, and directly or indirectly related, based on spatial locations. Because of this and assuming that the geographical space constitutes a complex system, it is necessary that the spatial decision-making process intended for achieving aspects of location of goods and services, and/or events for the aforementioned purposes, is carried out in an interdisciplinary way, preferably through participation and consensus from the involved stakeholders involved.In this thesis, an applied research is presented that had as main purpose to provide an archetype that supports the process of spatial decision-making through the spatial consensus by diverse social actors, specially in regard to the location of goods, services and/or events. The archetype, based on the spatial version of the Delphi method modified, has as main characteristic the use of the opinions from a group of experts to solve a problem in the context of the decision-making process and / or in the framework for foresight while also considering the geographical aspect, all of this in order to reach a consensus in regard to the identification of an optimal location in a limited part of a territory.By following the Design Science Research methodology (DSR) and by adopting as auxiliary methods, Documentary Research and Reuse-Based Software Development, an artifact called Geospatial System of Collective Intelligence (SIGIC) was devised through which a collective intelligence behavior could be induced into multidisciplinary groups not experienced in the use of geotechnologies, and for the purpose of locating goods, services, and / or events through the spatial consensus from the participants. After having evaluated the artifact in five different spatial decision situations, two of them in Italy for the location of an air quality monitoring station, and for the zoning of the street prostitution process; two of them in Ecuador to determine the location for the installation of a booth for the screening of HIV and to state the location of booths for the annual initiative for blood collection, and finally, one more in Antarctica, Greenwich Island to determine the location of goods and services to plan the activities of the Scientific Station Pedro Vicente Maldonado.The main results exhibit that even multidisciplinary groups without previous experience in the use of geotechnologies can interact with these tools to study and determine through consensus of their spatial opinions, the potential location of goods, services and / or events in a given territory, thus achieving in this way a process of Collective Spatial Analysis as support for spatial decisions, mainly in aspects related to planning, organization, and use of resources in the territory, and even for the evaluation, preparation, or adoption of policies, plans, and corresponding programs. / El proceso de toma de decisiones espaciales con fines de planificación, políticas, planes o programas territoriales, está estrechamente vinculado con el concepto de la localización en el espacio geográfico respectivo, principalmente porque en base a las ubicaciones espaciales se pueden determinar y relacionar directa e indirectamente, muchos otros aspectos como son los recursos naturales, las materias primas, la infraestructura, la proximidad al mercado, el clima, la cultura, las áreas estratégicas y de seguridad, entre otros. Por esta razón, y asumiendo que el espacio geográfico constituye un sistema complejo, es necesario que la toma de decisiones espaciales destinada a lograr aspectos de localización de bienes servicios y/o eventos para lo fines antes mencionados, se efectúe interdisciplinarmente, preferentemente a través de la participación y consenso de los actores involucrados.En esta tesis se presenta una investigación aplicada que tuvo como propósito aportar un arquetipo para coadyuvar en el proceso de toma de decisiones espaciales por medio del consenso espacial entre diversos actores sociales, primordialmente con respecto a la localización de bienes, servicios y/o eventos. El arquetipo, basado en la versión espacial del Método Delphi modificado, tiene como característica principal el uso de las opiniones de un grupo de expertos para resolver un problema en el contexto de toma de decisiones y/o marco de previsión considerando el aspecto geográfico, con el objetivo de llegar a un consenso respecto a la identificación de una ubicación óptima en una parte limitada del territorio.Siguiendo la metodología de Investigación en Ciencia del Diseño (DSR por su acrónimo en Inglés) y adoptando como métodos auxiliares la Investigación Documental y el Desarrollo de Software Basado en la Reutilización, se ideó el artefacto llamado Sistema Geoespacial de Inteligencia Colectiva (SIGIC), con el cual se logró inducir y coordinar un comportamiento de inteligencia colectiva en grupos multidisciplinares no experimentados en el uso de geotecnologías, con el propósito de localizar bienes, servicios y/o eventos mediante el consenso espacial de los participantes. Este artefacto se evaluó en cinco situaciones diferentes de decisión espacial: dos en Italia, para la ubicación de una estación de monitoreo de calidad del aire y para la zonificación del proceso de prostitución de calle; dos en Ecuador, para determinar el lugar de instalación de un puesto para pruebas de tamizaje de VIH y para establecer las ubicaciones de puestos para la campaña anual de colecta de sangre; y una en la Antártida, Isla de Greenwich, para determinar la ubicación de bienes y servicios con fines de planificación de actividades de la Estación Científica Pedro Vicente Maldonado.Los principales resultados exhiben que grupos multidisciplinares sin práctica en el uso de geotecnologías pueden interactuar con estas herramientas para estudiar y determinar a través del consenso de sus opiniones espaciales, la probable localización de bienes, servicios y/o eventos en un territorio determinado, conformando de esta manera un proceso de Análisis Espacial Colectivo como soporte a las decisiones espaciales principalmente, para aspectos de planificación, organización y empleo de recursos en el territorio o bien para la evaluación, preparación o adopción de políticas, planes y programas correspondientes. / El procés de presa de decisions espacials amb fins de planificació, polítiques, plans o programes territorials, esta íntimament vinculat amb el concepte de la localització en l’espai geogràfic respectiu, principalment perquè en base a las ubicacions espacials es pot determinar i relacionar directament i indirecta, molts altres aspectes com són els recursos naturals, les matèries primeres, la infraestructura, la proximitat al mercat, el clima, la cultura, les àrees estratègiques i de seguretat, entre d´altres. Per aquesta raó, i assolint que el espai geogràfic constitueix un sistema complex, és necessari que la presa de decisions espacials destinada a aconseguir aspectes de localització de béns serveis i/o esdeveniments per els fins anteriorment esmentats, s’efectui interdisciplinariament, de manera preferent mitjançant la participació i consens dels actors involucrats.A aquesta tesi es presenta una investigació aplicada que va tenir com a propòsit aportar un arquetip per coadjuvar en el procés de presa de decisions espacials mitjançant el consens espacial entre diversos actors socials, primordialment respecte de la localització de béns, serveis i/o esdeveniments. L'arquetip, basat en la versió espacial del Mètode Delphi modificat, té com a característica principal l'ús de les opinions d'un grup d'experts per resoldre un problema en el context de presa de decisions i/o marc de previsió considerant l'aspecte geogràfic, amb el objectiu d'arribar a un consens respecte a la identificació d'una ubicació òptima en una part limitada del territori.Tot seguint la metodologia d´Investigació en Ciència del Disseny (DSR per el seu acrònim en anglès) i adoptant com a mètodes auxiliars la Investigació Documental i el Desenvolupament de Software Fonamentat en la Reutilització, es va idear l’artefacte anomenat Sistema Geoespacial d’Intel·ligència Col·lectiva (SIGIC), mitjançant del qual es va aconseguir induir i coordinar un comportament d’intel·ligència col·lectiva en grups multidisciplinaris no experimentats en l’ús de geotecnologíes, amb el propòsit de localitzar béns, serveis i/o esdeveniments mitjançant el consens espacial dels participants. Aquest artefacte es va avaluar en cinc situacions diferents de decisió espacial: dos a Itàlia, per a la ubicació d'una estació de monitorització de qualitat de l'aire i per a la zonificació del procés de prostitució del carrer; dos a Equador, per determinar el lloc d'instal·lació d'un posat per a proves de tamisatge de VIH i per establir les ubicacions de llocs per a la campanya anual de col·lecta de sang; i una a l'Antàrtida, Illa de Greenwich, per determinar la ubicació de béns i serveis amb fins de planificació d'activitats de l'Estació Científica Pedro Vicente Maldonado.Els principals resultats exhibeixen que grups multidisciplinaris sense practica en l’ús de les geotecnologíes poden interactuar amb aquestes eines per estudiar i determinar mitjançant el consens de les seves opinions espacials, la probable localització de béns, serveis i/o esdeveniments en un territori determinat, conformant d´aquesta manera un procés d’Anàlisi Espacial Col·lectiu com a suport a les decisions espacials principalment, per aspectes de planificació, organització i ocupació de recursos en el territori o bé per l´avaluació, preparació o adopció de polítiques, plans i programes corresponents. / Il processo decisionale spaziale ai fini della pianificazione, delle politiche, dei piani o dei programmi territoriali, è strettamente legato al concetto di localizzazione dello spazio geografico di riferimento, principalmente perché in base alle ubicazioni spaziali possono essere determinati e si relazionano direttamente e indirettamente, molti altri aspetti tra i quali le risorse naturali, le materie prime, le infrastrutture, la vicinanza al mercato, il clima, la cultura, le aree strategiche e di sicurezza. Quindi, assumendo che lo spazio geografico costituisce un sistema complesso, è necessario che le decisioni spaziali volte ad ottenere aspetti per la localizzazione di beni e servizi e/o eventi per i fini prima menzionati, siano effettuate in maniera interdisciplinare, preferibilmente attraverso la partecipazione e il consenso tra le parti interessate.
In questa tesi viene presentata una ricerca applicata che ha avuto come proposito fornire un archetipo per aiutare nel processo decisionale spaziale per mezzo del consenso speciale tra diversi attori sociali, soprattutto per quanto riguarda la localizzazione dei beni, servizi e/o eventi. L'archetipo, in
base alla versione spaziale del Metodo Delphi modificato, ha come caratteristica principale l'uso delle opinioni di un gruppo di esperti per risolvere un problema nel contesto del processo decisionale e/o di un quadro di previsione considerando l'aspetto geografico, con l'obiettivo di giungere ad un
consenso riguardo l'identificazione di una posizione ottimale in una parte limitata del territorio.
Seguendo la metodologia della Ricerca Scientifica di Progettazione (DSR con il suo acronimo in inglese) e adottando come metodi ausiliari la Ricerca Documentaria e lo Sviluppo del Software Basato sulla Riutilizzazione, è stato messo a punto l’artefatto chiamato Sistema Geo-Spaziale di
Intelligenza Collettiva (SIGIC), con il quale è stato possibile indurre e coordinare un comportamento di intelligenza collettiva in gruppi multidisciplinari non sperimentati nell'uso di geo-tecniche, al fine di localizzare beni, servizi e/o eventi attraverso il consenso spaziale dei partecipanti. Questo artefatto è stato valutato in cinque situazioni diverse di decisione spaziale: due in Italia, per l'ubicazione di una stazione di monitoraggio della qualità dell'aria e per la zonizzazione del processo di prostituzione di strada; due in Ecuador, per determinare il luogo di installazione di un centro per i test per l'HIV e per stabilire le ubicazioni di centri per la campagna annuale di donazione del sangue; e una in Antartide, nell'isola Greenwich, per determinare l'ubicazione di beni e servizi al fine di pianificare le attività della Stazione Scientifica Pedro Vicente Maldonado.
Dopo aver valutato l'artefatto in cinque differenti situazioni di decisione spaziale, i principali risultati mostrano che i gruppi multidisciplinari senza pratica nell'uso di geo-tecniche possono interagire con questi strumenti per studiare e determinare attraverso il consenso delle loro opinioni spaziali, la probabile localizzazione dei beni, servizi e/o eventi in un determinato territorio, formando così un processo di Analisi Spaziale Collettiva principalmente come supporto alle decisioni spaziali, per gli aspetti di pianificazione, organizzazione e l'uso delle risorse in il territorio o anche per la valutazione, la preparazione o l'adozione di politiche, piani e programmi corrispondenti.
|
117 |
Voter Compatibility In Interval SocietiesCarlson, Rosalie J 01 April 2013 (has links)
In an interval society, voters are represented by intervals on the real line, corresponding to their approval sets on a linear political spectrum. I imagine the society to be a representative democracy, and ask how to choose members of the society as representatives. Following work in mathematical psychology by Coombs and others, I develop a measure of the compatibility (political similarity) of two voters. I use this measure to determine the popularity of each voter as a candidate. I then establish local “agreeability” conditions and attempt to find a lower bound for the popularity of the best candidate. Other results about certain special societies are also obtained
|
118 |
A systematic approach to airborne sensor orientation and calibration: method and modelsBlázquez González, Marta 03 July 2012 (has links)
Tesi per compendi de publicacions / Avui dia, s'estima que el mercat de la geom atica mou pels volts de 30 bilions d'euros. Al darrera del creixement d'aquest mercat hi trobem noves tecnologies,projectes i aplicacions, com per exemple, \Global Positioning System"(GPS), Galileo, \Global Monitoring for Environment and Security"(GMES), Google Earth, etc. Actualment, la demanda i el consum de geoinformaci o est a incrementant i, a m es a m es, aquesta ha de ser precisa, exacta, actualitzada i assequible.
Amb l'objectiu d'acomplir aquests requisits t ecnics i, en general, la demanda del mercat, la ind ustria i l' ambit acad emic estan introduint un darrera l'altre
sistemes d'imatgeria, plataformes a eries i plataformes satel.litals. Per o alhora, aquests sistemes d'adquisici o introdueixen nous problemes com el calibratge i l'orientaci o de sensors, la navegaci o de les plataformes (de manera precisa i exacta segons el seu rendiment), la combinaci o de diferents tipus de sensors, la integraci o de dades auxiliars que provenen de diverses fonts, aspectes temporals com la gravaci o \cont nua"en el temps dels sensors, la feble geometria d'alguns d'ells, etc. Alguns d'aquests problemes es poden resoldre amb els m etodes i estrat egies actuals, sovint afegint pegats, per o la majoria no es poden resoldre amb els m etodes vigents o no es poden resoldre amb els m etodes vigents amb fiabilitat i robustesa. Aquesta tesi presenta les abstraccions i generalitzacions necess aries que permeten desenvolupar la propera generaci o d'ajustos de xarxes i m etodes d'estimaci o amb l'objectiu de resoldre aquests problemes. A m es, basada en aquestes idees, s'ha desenvolupat la principal eina d'aquesta recerca: la plataforma de software \Generic Extensible Network Approach"(GENA).
L'objectiu d'aquesta recerca es establir les bases met odiques d'un concepte sistem atic per l'orientaci o i el calibratge de sensors aeris i provar la seva validesa amb nous models i aplicacions. Aix , en primer lloc, prenent dist ancia sobre el que s'ha fet tradicionalment i tenint en compte tot el que ens ofereix la tecnologia INS/GNSS, aquesta tesi genera un m etode per l'explotaci o dels sistemes INS/GNSS en l'orientaci o i el calibratge de sensors aeris. I, en segon lloc, s'han proposat i testejat amb dades reals alguns models que conformen aquest concepte, com per exemple, l' us de temps, posici o i actitud donats pel sistema INS/GNSS en mode relatiu (eliminant la necessitat dels par ametres d'absorci o d'errors INS/GNSS o la matriu d'orientaci o relativa IMU-sensor), l' us de temps, posici o, velocitat i actitud pel calibratge de temps (utilitzant aix la soluci o completa que donen els sistemes INS/GNSS per lligar les dimensions espacial i temporal) o reduir el nombre de mesures de l'orientaci o integrada de sensors tradicional, duent a terme la proposta \fast aerotriangulation", Fast AT. Aquesta recerca est a presentada a la tesi com un compendi d'articles.
Aix doncs, els resultats de la tesi no s on nom es el document de la tesi en si mateix i les publicacions, hi ha tamb e un software comercial i models i
aplicacions que validen el m etode proposat i representen un nou panorama per l'orientaci o i el calibratge de sensors aeris. / En la actualidad, el mercado de la geom atica est a valorado en unos 30 billones de euros. Tras el crecimiento de dicho mercado, se hallan nuevas tecnologias, proyectos y aplicaciones, como por ejemplo, \Global Positioning System"(GPS), Galileo, \Global Monitoring for Environment and Security"(GMES), Google Earth, etc. Hoy en d a, la demanda y el consumo de geoinformaci on est a increment andose y, adem as, dicha informaci on debe ser precisa, exacta, actualizada y asequible. Intentando cumplir estos requisitos t ecnicos y, en general, la demanda del mercado, la industria y el ambito acad emico est an introduciendo uno tras otro sistemas de imagen, plataformas a ereas y plataformas satelitales. Pero a su vez, estos sistemas de adquisici on introducen nuevos problemas como la calibraci on y la orientaci on de sensores, la navegaci on de las plataformas (debe ser precisa y exacta teniendo en cuenta su rendimiento particular), la combinación de diferentes tipos de sensor, la integraci on de datos auxiliares que proceden de diversas fuentes, aspectos temporales como la grabaci on \continua" en el tiempo de los sensores, la d ebil geometr a de algunos de ellos, etc. Algunos de estos problemas pueden resolverse con los m etodos y estrategias actuales, generalmente aplicando parches, pero la mayor a no se pueden resolver con los m etodos vigentes o no se pueden resolver con los m etodos vigentes con fi abilidad y robustez. Esta tesis presenta las abstracciones y generalizaciones necesarias que permiten desarrollar la pr oxima generaci on de ajustes de redes y m etodos de estimaci on con el objetivo de resolver estos problemas. Es m as, basada en estas ideas, se ha desarrollado la herramienta principal de esta investigaci on: la plataforma de software \Generic Extensible Network Approach"(GENA).
El objetivo de esta investigaci on es establecer las bases met odicas de un concepto sistem atico para la orientaci on y la calibraci on de sensores a ereos, y
probar su validez con nuevos modelos y aplicaciones. As pues, en primer lugar, distanci andonos de lo que tradicionalmente se ha realizado y considerando lo que la tecnolog a INS/GNSS nos ofrece, esta tesis crea un m etodo para la explotaci on de los sistemas INS/GNSS en la orientaci on y la calibraci on de sensores a ereos. Y, en segundo lugar, se proponen y testean con datos reales algunos modelos que constituyen este concepto, como por ejemplo, el uso de tiempo, posici on y actitud dados por el sistema INS/GNSS en modo relativo (eliminando la necesidad de los par ametros de absorci on de errores INS/GNSS o la matriz de orientaci on relativa IMU-sensor), el uso de tiempo, posici on, velocidad y actitud para la calibraci on temporal (utilizando as la soluci on completa que dan los sistemas INS/GNSS para enlazar las dimensiones espacial y temporal) o reducir el n umero de medidas de la orientaci on integrada de sensores tradicional, llevando a cabo la propuesta \fast aerotriangulation", Fast AT. Esta investigaci on est a presentada en la tesis como un compendio de art culos.
Resumiendo, los resultados de la tesis no son s olo el documento de la tesis en sí mismo y las publicaciones, existe tambi en un software comercial y modelos y aplicaciones que validan el m etodo propuesto y presentan un nuevo panorama para la orientaci on y la calibraci on de sensores a ereos. / The geomatic market has an estimated value of some 30 thirty trillion euros. Behind this growing market, there are new technologies, projects and applications like Global Positioning System (GPS), Galileo, Global Monitoring for Environment and Security (GMES), Google Earth, etc. Modern society is increasingly demanding and consuming geoinformation that must be precise, accurate, up-to-date and affordable. In an attempt to meet these technical requirements and general market demand, industry and academia are introducing one imaging system, airborne platform and satellite platform after another. These acquisitions are introducing new problems such as calibration and orientation of the sensors, navigation of the platforms (with an
accurate and precise processing of their individual performances), combination of different types of sensors, integration of auxiliary data provided from various sources, temporal issues of the ¿continuously¿ recording sensors, weak geometry of some sensors, etc. Some of the previous problems can be solved with current methods and strategies, oftentimes with a dose of patchwork. However, the vast majority of these problems cannot be solved with the current methods, or at least not with a like degree of robustness and reliability. This thesis presents the abstractions and generalizations needed to facilitate the development of the next generation of network adjustment and estimation methods that will make it possible to solve these problems. Moreover, the main tool of this research is a commercial software platform, ¿Generic Extensible Network Approach' (GENA), based on the proposed network approach.
The goal of this research is to establish a methodical basis of a systematic approach to airborne sensor orientation and calibration and to prove its validity with newly-developed models and applications. On one hand, viewing the traditional DiSO and ISO from a distance and considering the possibilities that the INS/GNSS technology offers, this thesis generates a method to exploit the INS/GNSS systems for airborne sensor orientation and calibration. On the other hand, several models that constitute this method are proposed and tested with independent actual data sets; for example, the use of INS/GNSS-derived time, position and attitude in relative mode (avoiding the need for GNSS linear shift parameters, that absorb the INS/GNSS errors, or the relative orientation IMU-to-sensor, boresight, matrix), the use of INS/GNSS-derived time, position, velocity and attitude for time calibration (exploiting the full solution of the INS/GNSS systems to link the space and time dimensions) or the measurement reduction of the traditional integrated sensor orientation to perform the proposed "fast aerotriangulation", or Fast AT. This research is presented in the thesis as compiled papers.
Therefore, the results of this thesis are not only the thesis document itself and a number of publications, but also a commercial software platform and models and applications that validate the proposed method and present a new panorama for airborne sensor orientation and calibration.
|
119 |
Wideband Microwave Circuits for Radioastronomy Applications. Circuitos de microondas de banda ancha para aplicaciones de radioastronomíaVilla Benito, Enrique 21 November 2014 (has links)
El estudio de la radiación del Fondo Cósmico de Microondas como principal evidencia del Big Bang como teoría de origen del Universo lleva consigo el desarrollado de receptores de muy alta sensibilidad y ancho de banda en la banda de ondas milimétricas. En esta tesis, se desarrolla el diseño e integración del receptor de la banda de 26 a 36 GHz del instrumento QUIJOTE (Q-U-I JOint TEnerife) que está basado en la conmutación de estados a través de conmutadores de fase de 180º y de 90º. Los circuitos conmutadores deben proporcionar una diferencia de fase plana, de 180º o de 90º respectivamente, en el rango de frecuencias del receptor. Además, en esta tesis se desarrolla el diseño de detectores a diodo, que deben proporcionar la conversión de la potencia de la señal de microondas a niveles de tensión a su salida, para lo que utilizan diodos Schottky. A su vez se analiza el comportamiento de circuitos y dispositivos discretos (diodos) con el cambio de la temperatura de operación, estudiando sus variaciones. Por último, para el desarrollo de los circuitos ha sido necesario el modelado de diodos de microondas, tanto Schottky como PIN, para su utilización en los circuitos y la operación de los circuitos a temperatura ambiente y a temperatura criogénica (alrededor de 15 K). / The analysis of the Cosmic Microwave Background radiation as main evidence of the Big Bang theory involves the development of very high sensitivity receivers and broadband working in millimetre-wave frequencies. In this thesis, the 26 to 36 GHz frequency band QUIJOTE (Q-U-I JOint TEnerife) instrument receiver is designed and integrated, which is based on phase switching using 180º and 90º phase switches. The phase switching circuits must ensure a flat phase difference, 180º or 90º respectively, in the whole frequency range covered by the receiver. Besides, microwave detectors based on Schottky diode are developed which convert the power of the microwave signal into output voltages. The behaviour and variations in performance of circuits and discrete devices are also analysed as a function of the working physical temperature. Finally, the modelling of microwave diodes, such as Schottky and PIN, is described, which are intended for their use on the design stage of the circuits at room and cryogenic (around 15 K) temperatures.
|
120 |
Etude par ellipsométrie spectroscopique des effets de taille sur les propriétés optiques de couches composites à matrice diélectrique et du silicium nanostructuré / Spectroscopic ellipsometry study of size effects on the optical properties of thin composite films containing nanostructured silicon within a dielectric matrixKeita, Al-Saleh 03 May 2012 (has links)
Les films minces à matrice diélectrique contenant des nanocristaux de Si peuvent avoir diverses applications potentielles telles qu'en nanoélectrique pour la conception de dispositifs à mémoire ou en optoélectronique dans la mise en oeuvre de cellules photovoltaïques à haut rendement ou l'élaboration d'un laser à base de silicium. Dans un premier temps, nous avons employé l'ellipsométrie spectroscopique pour décrire les propriétés optiques des films de nitrure de silicium enrichi en silicium (SRSN), essentiellement élaborés par dépôt chimique en phase vapeur puis soumis à un recuit thermique rapide (RTA). Nous avons montré qu'il est possible de prédire à l'aide d'un critère purement optique la détection, au microscope électronique en transmission, des nanoparticules de Si (NP-Si) dans les couches SRSN. Le recuit de type RTA conduit à la formation de fortes densités de nanoparticules de Si dans les couches composites SRSN. Les propriétés optiques des NP-Si ont été calculées par trois méthodes différentes : inversion numérique longueur d'onde par longueur d'onde (sans aucun paramètre d'ajustement), et modèles de dispersion de Forouhi-Bloomer et Tauc-Lorentz (avec 5 paramètres d'ajustement). L'évolution des paramètres de cette dernière formule révèle la présence de silicium amorphe confiné dans nos couches. Nous avons également mis en évidence le rôle déterminant du rapport des flux de gaz précurseurs RQ (=QNH3/QSiH4) ainsi que de la température de recuit Tr sur les propriétés optiques des films SRSN mais aussi des NP-Si qu'ils contiennent. En effet une légère augmentation de RQ induit une variation significative du spectre de la fonction diélectrique des NP-Si... / Thin composite films containing Si nanocrystals within a dielectric matrix may have several potential applications such as in nanoelectronics for the design of memory devices or in optoelectronics in view of the implementation of high-efficiency solar cells or the development of a silicon-based laser. Initially, we used spectroscopic ellipsometry in order to describe the optical properties of silicon-rich silicon nitride films (SRSN), mainly produced by chemical vapor deposition and thereafter subjected to rapid thermal annealing (RTA). We showed that the presence of Si nanoparticles (Si-NPs), that are observable by transmission electron microscopy, can be predicted by using a purely optical criterion. The RTA annealing leads to the formation of high densities of Si nanoparticles in the composite films. The optical properties of the Si-NPs have been calculated by three different methods: wavelength-by-wavelength numerical inversion (without any fitting parameters). The evolution of the parameters of this latter formula reveals the presence of confined amorphous Si-NPs in the investigated samples. We also highlighted the role of the flows ratio of the precursor gases RQ (=QNH3/QSiH4) and the annealing temperature TR on the optical properties of both the films and the Si-NPs they contain. Indeed a slight increase in RQ induced a significant variation in the spectrum of the dielectric function of the Si-NPs. On the other hand, the influence of the annealing temperature is noticeable beyond 950°C, and results in an increase of the amplitude and a reduction of the broadening of the...
|
Page generated in 0.0427 seconds