• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 38
  • 18
  • 8
  • 1
  • Tagged with
  • 65
  • 65
  • 23
  • 22
  • 18
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Essays on financial contagion

Urbina Calero, Jilber Andrés 05 December 2013 (has links)
Esta tesis analiza el mecanismo de transmisión de la reciente Crisis Financiera Global de 2008 por medio del empleo de pruebas de hipótesis para determinar si el contagio ocurrió, la ausencia de contagio implica que la propagación de la crisis se dio por vía de interdependencia. Esta tesis está constituida por siete capítulos muy relacionados entre sí, todos ellos están dedicados a analizar la existencia del contagio en los mercados bursátiles. La principal conclusión de este trabajo es que los mercados permanecen altamente vinculados antes y después de la crisis, de manera que, el contagio no fue el principal canal de transmisión de la crisis. En este trabajo se usaron observaciones diarias los retornos de seis mercados bursátiles abarcando el periodo que va desde junio de 2003 hasta diciembre 2012. El foco principal de la investigación es sobre el estudio de los comovimentos condicionales, es decir, la correlación condicional y la co-asimetría condicional. / This thesis analyses the transmission channel of the recent 2008 Global Financial Crisis by testing whether contagion occurred, the absent of contagion implies that crisis spills over via interdependence. This thesis consists of seven closely related chapters, all of them are devoted to analyze the existence of contagion in stock markets. The main conclusion from this work is that markets remains highly linked before and after crises, therefore, contagion is not the main transmission channel. Daily estimations on six aggregate stock market returns are used in this study covering from June 2003 to December 2012. The main focus of the research is on conditional comovements, namely, conditional correlations and conditional co-skewness.
42

Algunas herramientas estadísticas y matemáticas para la modelización del tráfico

Calviño Martínez, Aída 08 March 2013 (has links)
Esta tesis presenta los siguientes modelos estadístico-matemáticos originales: - Dos modelos estáticos de asignación de tráfico con usuarios heterogéneos que permiten obtener los flujos de las rutas y los arcos, conocidos los flujos entre pares origen-destino. Dichos modelos consideran distintas clases de usuarios según su deseo de puntualidad y adelantamiento, respectivamente. - Un modelo bayesiano de estimación de matrices origen-destino basado en técnicas de optimización jerárquica. Las estimaciones se obtienen a partir de la información ofrecida por arcos escaneados. - Se calcula el mínimo conjunto de arcos que debe ser equipado con sensores para obtener observabilidad total a partir de los flujos en arcos. - Un modelo continuo para el problema dinámico de recarga de red incluyendo adelantamientos que proporciona los flujos y tiempos de viaje en los arcos de la red en cualquier instante del intervalo de tiempo en estudio. - Algunos métodos gráficos para analizar trayectorias de tráfico con y sin adelantamiento, que permiten analizar el estado de una red (velocidad, aceleración, etc.) a partir de las características físicas de los gráficos de trayectorias (pendiente, curvatura, etc.). Todos los modelos han sido evaluados en redes de tráfico ficticias y reales (las ciudades españolas de Cuenca y Ciudad Real), con el fin de analizar sus características y evaluar la validez de los resultados. Asimismo, se incluye una revisión de la literatura que permite contextualizar los modelos originales propuestos en esta tesis. / In this thesis, the following original statistical and mathematical models are presented: - Two static traffic assignment model with heterogeneous users that permits obtaining the link and path flows from the flow on the origin-destination pairs. These models consider different users classes by their punctuality and overtaking desire, respectively. - A Bayesian origin-destination matrix estimation model based on hierarchical optimization. The estimates are obtained by means of counted links. - The minimum number of sensors to be installed on links for total link observability is derived. - A continuous dynamic network loading problem considering overtaking that gives link travel times and flows all over the network at any time of the period under study. - Some graphical methods to analyze trajectory plots with and without overtaking that lead to an evaluation of the system state (speed, acceleration, etc.) by means of the trajectories physical characteristics (slope, curvature, etc.). All these models have been tested in fictitious and real traffic networks (the Spanish cities of Cuenca and Ciudad Real), with the aim of analyzing its characteristics and performance. Furthermore, a literature review about existing traffic problems and the most widely used models to solve them is done.
43

Reliability of classification and prediction in k-nearest neighbours

Villa Medina, Joe Luis 25 October 2013 (has links)
En esta tesis doctoral seha desarrollado el cálculo de la fiabilidad de clasificación y de la fiabilidad de predicción utilizando el método de los k-vecinos más cercanos (k-nearest neighbours, kNN) y estrategias de remuestreo basadas en bootstrap. Se han desarrollado, además, dos nuevos métodos de clasificación:Probabilistic Bootstrapk-Nearest Neighbours (PBkNN) y Bagged k-Nearest Neighbours (BaggedkNN),yun nuevo método de predicción,el Direct OrthogonalizationkNN (DOkNN).En todos los casos, los resultados obtenidos con los nuevos métodos han sido comparables o mejores que los obtenidos utilizando métodos clásicos de clasificación y calibración multivariante. / En aquesta tesi doctoral s'ha desenvolupat el càlcul de la fiabilitat de classificació i de la fiabilitat de predicció utilitzant el mètode dels k-veïns més propers (k-nearest neighbours, kNN) i estratègies de remostreig basades en bootstrap. S'han desenvolupat, a més, dos nous mètodes de classificació: Probabilistic Bootstrap k-Nearest Neighbours (PBkNN) i Bagged k-Nearest Neighbours (Bagged kNN), i un nou mètode de predicció, el Direct OrthogonalizationkNN (DOkNN). En tots els casos, els resultats obtinguts amb els nous mètodes han estat comparables o millors que els obtinguts utilitzant mètodes clàssics de classificació i calibratge multivariant.
44

Design of off-grid renewable energy community electrification projects : analysis of micro-scale resource variations and development of optimization methods

Ranaboldo, Matteo 09 February 2015 (has links)
Tesi per compendi de publicacions / Projects relying on renewable energies are a suitable and sustainable option to electrify isolated communities autonomously. These systems produce electricity in a clean and environmentally respectful way and their cost is often lower than national grid extension. Hybrid systems that combine different energy resources (wind and solar) and distribution through microgrids are the most efficient design configurations. When considering hybrid systems and microgrids, the design of rural electrification projects is referred to as the AVEREMS problem. The optimization of the AVEREMS problem is a complex task that requires the use of specific support tools. In this context, some shortcomings have been encountered in the current state-of-the-art in the design of off-grid electrification projects based on renewable energies, in specific: the lack of knowledge about detailed wind resource studies for this kind of projects and the need of procedures for solving the AVEREMS problem considering generation also far from the demand in order to take advantage of best resource areas. The main objective of this thesis is to tackle these limitations by means of: 1) defining a method for detailed wind resource assessment in rural electrification projects, 2) the development and 3) application of procedures to solve the AVEREMS problem considering micro-scale resource variations and generation in every point of a community (being a demand or a no-demand point). Firstly, a method for detailed wind resource assessment is presented relying on the use of micro-scale wind flow models: the method is validated in two mountainous communities and applied for the design of a real project in Cape Verde. Then, different solving procedures are developed: first some indicators are proposed to support algorithms¿ design, and then two procedures (a deterministic heuristic and a metaheuristic algorithm) are presented in order to solve the AVEREMS problem. Different algorithm versions are analyzed in order to select the ones that give best results. The proposed algorithms, besides considering generation in every point of a certain area (being a demand or a no-demand point), enhance the performance of the currently available tools. Finally, the design of a real electrification project in Nicaragua is carried out including a micro-scale wind resource assessment and the application of the developed metaheuristic procedure for design optimization. The wind resource assessment method and the solving procedures developed in this Thesis can be easily applied to support the design of off-grid rural electrification projects with renewable energies. Their utilization will improve projects efficiency and sustainability reducing some of the technical issues that still limit their implementation in isolated communities. / Los proyectos de electrificación basados en energías renovables han demostrado ser una opción adecuada y sostenible para abastecer comunidades aisladas de forma autónoma. Estos sistemas producen energía de manera limpia y respetuosa del medio ambiente y su coste es a menudo inferior al de extender la red eléctrica nacional. Las configuraciones de diseño más fiables y eficientes utilizan sistemas híbridos que combinan varios recursos (eólico y solar) y distribución mediante microrredes. El diseño de proyectos de electrificación rural considerando sistemas híbridos y microrredes se ha definido como el problema AVEREMS. La optimización del problema AVEREMS es una tarea compleja que requiere el uso de herramientas de soporte. Actualmente, el proceso de diseño de proyectos de electrificación basados en energía renovables presenta algunas limitaciones. Entre ellas, destacan la falta de conocimientos sobre estudios del recurso eólico y la necesidad de procedimientos para resolver el problema AVEREMS incluyendo la generación alejada de los puntos de consumo para aprovechar las áreas de mayor potencial. El principal objetivo de esta tesis es abordar dichas limitaciones, mediante: 1) la definición de un método para evaluar en detalle el recurso eólico en proyectos de electrificación rural; 2) el desarrollo y 3) la implementación de procedimientos para resolver el problema AVEREMS considerando la variación del recurso a micro-escala y generación en todos los puntos (sean estos de consumo o de no-consumo) de una determinada área. Primero se presenta un método para realizar estudios del recurso eólico mediante el uso de modelos de flujo de viento a micro-escala. El método se valida en dos comunidades montañosas y se aplica para el diseño de proyectos reales en Cabo Verde. Sucesivamente, se desarrollan diferentes procedimientos resolutivos: primero se definen unos indicadores de soporte al diseño, y sucesivamente se presentan dos algoritmos (uno heurístico y otro meta-heurístico) para resolver el problema AVEREMS. Se analizan diferentes versiones de los algoritmos para finalmente seleccionar las que obtienen los mejores resultados. Además de considerar generación en todos los puntos (de consumo o de no-consumo) de una cierta área, los algoritmos propuestos mejoran considerablemente las prestaciones de los métodos disponibles actualmente. Finalmente, se analiza el diseño de un proyecto de electrificación en una comunidad rural en Nicaragua incluyendo la evaluación de recurso a micro-escala y la aplicación del algoritmo meta-heurístico para la optimización del diseño. La metodología para la evaluación del recurso eólico y los algoritmos resolutivos desarrollados en esta tesis se pueden fácilmente aplicar para suportar el diseño de proyectos de electrificación rural con energías renovables. Su utilización permitirá mejorar la eficiencia y sostenibilidad de estos proyectos reduciendo algunos de los problemas técnicos que limitan su implementación en comunidades aisladas
45

Dynamics of optically levitated nanoparticles in high vacuum

Gieseler, Jan 03 February 2014 (has links)
Nanotechnology was named one of the key enabling technologies by the European Commission and its tremendous impact was envisioned early by 20th century physicist R.Feynman in his now oft-quoted talk "Plenty of Room at the bottom". Nanotechnology and nanoscience deal with structures barely visible with an optical microscope, yet much bigger than simple molecules. Matter at this mesoscale is often awkward to explore as it contains too many atoms to be easily understood by straightforward application of quantum mechanics (although the fundamental laws still apply). Yet, these systems are not so large as to be completely free of quantum effects; thus, they do not simply obey the classical physics governing the macroworld. It is precisely in this intermediate regime, the mesoworld, that unforeseen properties of collective systems emerge. To fully exploit the potential of nanotechnology, a thorough understanding of these properties is paramount. The objective of the present thesis is to investigate and to control the dynamics of an optically levitated particle in high vacuum, a system which belongs to the broader class of nanomechanical oscillators. Nanomechanical oscillators exhibit high resonance frequencies, diminished active masses, low power consumption and high quality factors - significantly higher than those of electrical circuits. These attributes make them suitable for sensing, transduction and signal processing. Furthermore, nanomechanical systems are expected to open up investigations of the quantum behavior of mesoscopic systems. Testing the predictions of quantum theory on macroscopic scales is one of today's outstanding challenges of modern physics and addresses fundamental questions on our understanding of the world. The state-of-the-art in nanomechanics itself has exploded in recent years, driven by a combination of interesting new systems and vastly improved fabrication capabilities. Despite major break-throughs, including ground state cooling, observation of radiation pressure shot noise, squeezing and demonstrated ultra-high force and mass sensitivity, difficulties in reaching ultra-high mechanical quality (Q) factors still pose a major limitation for many of the envisioned applications and significant improvements in mechanical quality (Q) factors are generally needed to facilitate quantum coherent manipulation. This is difficult given that many mechanical systems are approaching fundamental limits of dissipation. To overcome the limitations set by dissipation, I developed an experiment to trap and cool nanoparticles in high vacuum. The combination of nanoparticles and vacuum trapping results in a very light and ultra-high-Q mechanical oscillator. In fact, the Q-factor achieved with this setup is the highest observed so far in any nano- or micromechanical system. The scope of the thesis ranges from a detailed description of the experimental apparatus and proof-of-principle experiments (parametric feedback cooling) to the first observation of phenomena owing to the unique parameters of this novel optomechanical system (thermal nonlinearities). Aside from optomechanics and optical trapping, the topics covered include the dynamics of complex (nonlinear) systems and the study of fluctuation theorems, the latter playing a pivotal role in statistical physics. Optically trapped nanoparticles are just beginning to emerge as a new class of optomechanical systems. Owing to their unique mechanical properties, there is clearly a vast and untapped potential for further research. Primary examples of how levitated particles in high vacuum can impact other fields and inspire new research avenues have been the first observation of thermal nonlinearities in a mechanical oscillator and the study of fluctuation relations with a high-Q nanomechanical resonator. Based on recent progress in the field, a plethora of fundamental research opportunities and novel applications are expected to emerge as this still young field matures.
46

Conjoint design of railway lines and frequency setting under semi-congested scenarios

López Ramos, Francisco 24 February 2014 (has links)
This thesis develops mathematical programming models which integrate network design (ND) and line frequency setting (LFS) phases. These appear in transport planning studies that extend an existing urban public transportation system (UPTS) and are suitable for underground and rapid transit systems. The ND phase extends the working UPTS, taking as inputs the locations of candidate stretches and stations on the new lines, as well as construction costs which cannot exceed the available infrastructure budget. Regarding the LFS phase, frequencies and vehicles are assigned to functioning and newly built lines, providing that they do not exceed resource capacities and the time horizon. The developed models take into account the type of service patterns that may operate on the lines of the transport system. They include local services, where vehicles halt at every node in the line, and express services, in which vehicles halt at only a subset of nodes in the line. A passenger assignment model allows solving, simultaneously, the ND and LFS phases under a system optimum point of view. The combined model has two variants: one which deals with inelastic demand and another which faces elasticities in demand. The latter originates from changes in the modal choice proportions of travelers and may result from modifications in the public transport system. The former does not take into account competition among several modes of transportation and it is formulated as a mixed-integer linear programming problem. In contrast, the latter allows passengers to travel via two modes of transportation: public transport and private car. It is formulated as a mixed-integer linear bi-level programming problem (MILBP) with discrete variables only in the upper level. In both models, a complementary network is used to model transfers among lines and to reach the passenger¿s origin and/or destination nodes when the constructed UPTS does not cover them. The model with inelastic demand is initially solved by means of the commercial solver CPLEX under three different mathematical formulations for the ND phase. The first two are exact approaches based on extensions of Traveling Salesman Problem formulations for dynamic and static treatment of the line¿s subtours, whereas the last one is an approximation inspired by constrained k-shortest path algorithms. In order to deal with large-sized networks, a quasi-exact solution framework is employed. It consists of three solving blocks: the corridor generation algorithm (CGA), the line splitting algorithm (LSA), and a specialized Benders decomposition (SBD). The LSA and CGA are heuristic techniques that allow skipping some of the non-polynomial properties. They are related to the number of lines under construction and the number of feasible corridors that can be generated. As for the SBD, it is an exact method that splits the original mathematical programming problem into a series of resolutions, composed of two mathematical problems which are easier to solve. Regarding the elastic demand variant, it is solved under the same framework as the specialized Benders decomposition adaptation for solving MILBP, which results from this variant formulation. The inelastic demand variant is applied to two test cases based on underground network models for the cities of Seville and Santiago de Chile. Origin destination trip matrices and other parameters required by the models have been set to likely values using maps and published studies. The purpose of these networks is to test the models and algorithms on realistic scenarios, as well as to show their potentialities. Reported results show that the quasi-exact approach is comparable to approximate techniques in terms of performance. Regarding the elastic demand variant, the model is more complex and can be applied only to smaller networks. Finally, some further lines of research for both modeling and algorithmic issues are discussed.
47

Métodos estadísticos para evaluar la calidad del café

Salamanca Romero, Claudia Alejandra 13 April 2015 (has links)
La presente tesis realizó el análisis y evaluación de los métodos estadísticos para valorar la calidad del café. En este sentido, se dio un aporte para tratar de cuantificar y cualificar la calidad del café mediante las técnicas estadísticas abordados desde la estadística bayesiana, multivariada y del diseño experimental. Los métodos que se describen en cada uno de los estudios, muestran la relación y las diferencias de las diferentes técnicas empleadas. / This thesis was devoted to the analysis and evaluation of statistical methods to assess the quality of the coffee. In this sense, a contribution to try to quantify and qualify the coffee quality through statistical techniques addressed from Bayesian statistics, multivariate and experimental design were given. The methods described in each of the studies carried out, show the relationship and the differences of the different techniques used. / En aquesta tesi es va realitzar l’anàlisi i l’avaluació dels mètodes estadístics per a valorar la qualitat del cafè. En aquest sentit, es va tractar de quantificar i qualificar la qualitat del cafè mitjançant tècniques estadístiques abordades des de l’estadística Bayesiana multivariada i del disseny experimental. Els mètodes que es descriuen en cadascun dels estudis mostren la relació i les diferències de les distintes tècniques emprades.
48

Time Evolution and Predictability of Social Behavior in Techno-Social Networks

Godoy Lorite, Antonia 19 January 2016 (has links)
El fet que cada vegada disposem de més dades socials de sistemes socio-tecnològics---sistemes que registren la nostra activitat diària, tals com a registres de targeta de crèdit, registres de trucades telefòniques, correu electrònic, etc.---i les xarxes socials on-line---com facebook, twitter, instagram, etc.---, ha fet possible estudiar el comportament humà des de diferents perspectives. Descobrir els patrons darrere d'aquestes dades no només aportarà un millor coneixement de la societat, sinó que també beneficiaria a la societat en diferents aspectes, com l'adaptació de tecnologia a les necessitats socials o el disseny de millors polítiques per evitar la propagació d'epidèmies. L'objectiu d'aquesta tesi és precisament descobrir patrons estructurals i temporals en els sistemes socials i desenvolupar models predictius sobre la seva base. En particular, analitzem l'evolució a llarg termini en una xarxa de correu electrònic amb més d'1.000 persones al llarg de quatre anys consecutius. Veiem que, encara que l'evolució de la comunicació entre usuaris és altament impredictible, l'evolució macro de les xarxes de comunicació social segueix lleis estadístiques ben definides, caracteritzades pel decaïment exponencial de les variacions logarítmicas del pes de les comunicacions entre usuaris i del pes dels individus a la xarxa. Al mateix temps, trobem que els individus tenen una forma característica de comunicar-se, i aquesta no canvia en anys. Quant a la predictabilidad, desenvolupem dos models basats en xarxes: un model de recomanació (que prediu votacions d'usuaris sobre objectes) i un model d'inferència temporal (que prediu successos en el temps). El nostre model de recomanació és escalable i considerablement més precís en les seves prediccions que els algorismes actuals per bases de dades de milions de votacions. L'enfocament es basa en la suposició que hi ha grups de persones i d'articles (per exemple, pel·lícules, llibres, etc.) i que les preferències d'un individu sobre un element donat depenen del grups als que pertanyin. Però a més, permet que cada individu i cada article pertanyin simultàniament a diferents grups. Les comunitats superposades resultants i les prediccions sobre les votacions poden inferir-se amb un algorisme escalable de maximització d'expectatives basat en una aproximació variacional. En el mo / El hecho que cada vez dispongamos de más datos sociales de sistemas socio-tecnológicos---sistemas que registran nuestra actividad diaria, tales como registros de tarjeta de crédito, registros de llamadas telefónicas, correo electrónico, etc.---y las redes sociales on-line---como facebook, twitter, instagram, etc.---, ha hecho posible estudiar el comportamiento humano desde diferentes perspectivas. Descubrir los patrones detrás de estos datos no sólo aportará un mejor conocimiento de la sociedad, sino que también beneficiaría a la sociedad en diferentes aspectos, como la adaptación de la tecnología a las necesidades sociales o el diseño de mejores políticas para evitar la propagación de epidemias. El objetivo de esta tesis es precisamente descubrir patrones estructurales y temporales en los sistemas sociales y desarrollar modelos predictivos en base a ellos. En particular, analizamos la evolución a largo plazo en una red de correo electrónico con más de 1.000 personas a lo largo de cuatro años consecutivos. Vemos que, aunque la evolución de la comunicación entre usuarios es altamente impredecible, la evolución macro de las redes de comunicación social sigue leyes estadísticas bien definidas, caracterizadas por el decaimiento exponencial de las variaciones logarítmicas del peso de las comunicaciones entre usuarios y del peso de los individuos en la red. Así mismo, encontramos que los individuos presentan una forma caracteristica de comunicarse, y esta no cambia en años. En cuanto a la predictibilidad, desarrollamos dos modelos basados en redes: un modelo de recomendación (que predice votaciones de usuarios sobre objetos) y un modelo de inferencia temporal (que predice sucesos en el tiempo). Nuestro modelo de recomendación es escalable y considerablemente más preciso en sus predicciones que los algoritmos actuales para bases de datos de millones de votaciones. El enfoque se basa en la suposición de que hay grupos de personas y de artículos (por ejemplo, películas, libros, etc.) y que las preferencias de un individuo sobre un artículo dado dependen de los grupos a los que pertenezcan. Pero además, permitimos que cada individuo y cada artículo pertenecan simultáneamente a diferentes grupos. Las comunidades superpuestas resultantes y las predicciones sobre las votaciones pueden inferirse con un algoritmo de maximiz / The increasing availability of social data sources from socio-technological systems ---systems that record our daily activity such as credit card records, call-phone records, email, etc.--- and on-line social networks ---such as facebook, twitter, instagram, etc.---, has made it possible to study human behavior from different perspectives. Uncovering the patterns behind this data would not only give us a better knowledge about our society but could also benefit our society in a number of ways such as adapting technology to social needs or design better policies to avoid spread of epidemics. The aim of this thesis is precisely to uncover both structural and temporal patterns in social systems and to develop predictive models based on them. In particular, we analyze the long-term evolution in an email network with over 1,000 individuals throughout four consecutive years. We find that, although the evolution of individual ties is highly unpredictable, the macro-evolution of social communication networks follows well-defined statistical laws, characterized by exponentially decaying log-variations of the weight of social ties and of individuals' social strength. At the same time, we find that individuals have social signatures that are remarkably stable over the scale of several years. Regarding predictability, we develop two network-based models: a recommender model, and a temporal inference model. Our recommender model makes scalable predictions and is considerably more accurate than current algorithms for large datasets. The approach is based on the assumption that there are groups of individuals and of items (e.g. movies, books, etc.), and that the preferences of an individual for an given item depend on their group memberships. Importantly, we allow each individual and each item to belong simultaneously to different groups. The resulting overlapping communities and the predicted preferences can be inferred with a scalable expectation-maximization algorithm based on a variational approximation. In the temporal inference model users can belong simultaneously to different groups, but also the time intervals belong to overlapping communities. The results suggest that the algorithm is able to distinguish real events of non-events almost perfectly.
49

Large-scale simulation of population dynamics for socio-demographic analysis

Montañola i Sales, Cristina 24 April 2015 (has links)
Computer modelling and complex systems simulation have dominated the scientific debate over the last decade, providing important outcomes in biology, geology and life sciences. In the social sciences, the number of research groups currently developing research programs in this direction is increasing. The results are extremely promising since simulation technologies have the potential to become an essential tool in the field. Agent-based modelling is widely recognised as one of the techniques with more potential to develop useful simulations of social interacting systems. The approach allows to specify complex behavioural and cognitive rules at the individual level; and through aggregation, the output at the macro level can be derived. Increasingly, the output of micro-level simulation models is used as an input to policy models. Policy models not only requires detailed micro-level data, but also significant compute power since the number of agents and interactions can be extremely large in some cases. High performance computing offers a massive supercomputing power which allows us to simulate a large artificial society. In that context, parallel simulation could provide an alternative to speed up the execution of such compute-intensive socio-demographic models. It deals with techniques that allow the use of multiple processors to run a single simulation. Although research in parallel simulation has been around for more than two decades, the number of applications in the social sciences is scarce. In this thesis, we present a methodology for simulating population dynamics at a large-scale. Specifically, we developed a parallel simulation framework to run demographic models. It simulates the interactions of individuals in a society so the population projection can be obtained. Two of the main obstacles hindering the use of agent-based simulation in practice are (a) its scalability when the analysis requires large-scale models, and (b) its ease-of-use, especially for users with no programming experience. Our approach proposes a solution for both challenges. On one hand, we give a solution in to simulate large social systems in a parallel environment. We show its potential by studying the performance of our approach by identifying the factors that affect the simulation execution time. Moreover, we investigate the impact of three well-known configurations of computer architecture. Since the application of parallel simulation in demography is new, it is useful to quantify the effect of these factors on performance. On the other hand, we provide a graphical user interface which allows modellers with no programming background to specify agent-based demographic models and transparently run them in parallel. We believe this will help to remove a major barrier on using simulation although we are aware technical knowledge is necessary to execute scenarios in High Performance Computing facilities. Two cases studies are presented to support the feasibility of the approach for the social sciences. The first case under study carries out an analysis of the evolution of the emigrated population of The Gambia between 2001 and 2011, a relevant period for immigrations in Spain. The second case study simulates the socio-demographic changes of South Korean during one hundred years. The objective is to rate the feasibility of our methodology for forecasting individual demographic processes. Our results show that agent-based modelling can be very useful in the study of demography. Furthermore, the use of a parallel environment enables the use of larger scale demographic models / En las últimas décadas la modelización computacional y la simulación de sistemas complejos han dominado el debate científico, dando lugar a resultados importantes en áreas como la biología, la geología o las ciencias de la vida. En ciencias sociales el número de grupos de investigación que desarrollan programas en esta dirección no para de crecer. Los resultados son extremadamente prometedores ya que la simulación tiene el potencial para llegar a ser una herramienta esencial en el ámbito de los estudios sociales. La modelización basada en agentes es ampliamente reconocida como una de las técnicas con mayor potencial para desarrollar simulaciones de sistemas sociales. Este enfoque nos permite especificar reglas de comportamiento y cognición complejas a nivel del individuo y, a través de su agregación, se obtienen resultados a nivel macroscópico. Cada vez más, los resultados individualizados de los modelos de simulación son usados como entrada de modelos de políticas de planificación familiares. Estos modelos no sólo requieren una gran cantidad de datos a nivel microscópico, sino que además precisan de una capacidad de cálculo significativa ya que el nombre de agentes y sus interacciones puede llegar a ser muy grande. La computación de altas prestaciones ofrece una capacidad de cálculo masiva que nos permite simular a gran escala sociedades artificiales, proveyendo una alternativa para acelerar la ejecución de estos modelos socio-demográficos tan intensivos en sus cálculos. Aunque la investigación en simulación paralela tiene más de veinte años, el número de aplicaciones en las ciencias sociales es escaso. En esta tesis presentamos una metodología para simular dinámicas poblaciones a gran escala. Concretamente, hemos desarrollado un entorno de simulación paralela que permite emular modelos demográficos, simulando las interacciones de individuos en una sociedad con el fin de obtener la proyección de la población. Dos de los principales obstáculos para el uso de la simulación basada en agentes en su práctica son (a) la escalabilidad cuando el análisis requiere modelos muy grandes, y (b) su facilidad de uso particularmente en usuarios que no tienen experiencia en programación. Nuestro enfoque propone una solución para ambos retos. Por una parte, proponemos una solución a la simulación a gran escala de sistemas sociales en un entorno paralelo. Mostramos su potencial estudiando su rendimiento, identificando los factores que la hacen más sensible al tiempo de ejecución e investigando el impacto de tres configuraciones conocidas de la arquitectura. Puesto que la aplicación de la simulación paralela en demografía es nueva, es útil calcular el efecto de estos factores en el rendimiento de la metodología que proponemos. Por otra parte, el entorno desarrollado incluye una interface gráfica de usuario que permite a usuarios sin experiencia en programación especificar modelos demográficos basados en agentes y ejecutarlos de forma transparente en un entorno paralelo. Con este enfoque, ayudamos a superar una gran barrera en el uso de la simulación aunque un conocimiento técnico para ejecutar escenarios en una arquitectura de altas prestaciones sea necesario. Finalmente, presentamos dos casos de estudio que ponen de manifiesto el alcance de nuestro enfoque para las ciencias sociales. El primero realiza un análisis de la evolución de la población gambiana emigrada a España entre 2001 y 2011, un periodo especialmente relevante para las inmigraciones en España. El segundo caso simula los cambios sociodemográficos de Corea del Sud durante cien años. El objetivo es mostrar lo que nuestra metodología puede aportar para el estudio en profundidad de procesos demográficos. Nuestros resultados muestran que la modelización basada en agentes puede ser de gran utilidad en demografía. Así mismo, el uso de un entorno de computación paralelo nos permite simular la demografía poblacional a gran escala.
50

L'us de la informació simbòlica en l'automatització del tractament estadístic de dominis poc estructurats

Gibert Oliveras, Karina 30 January 1995 (has links)
Per les seves característiques intrínseques (coexistència de variables quantitatives i qualitatives amb gran nombre de modalitats , coneixement addicional sobre l'estructura del domini per part d'un expert), els dominis poc estructurats constitueixen problemes difícils de tractar amb les tècniques actuals en Estadística i Intel·ligència Artificial. A grans trets, l'estructura complexa d'aquests dominis fa que la construcció d'una base de coneixement complet sobre el domini, per a un sistema de diagnòstic, esdevingui pràcticament inabordable i que el clustering (basat en distàncies, que se situen en un pla sintàctic) tingui un comportament pobre; d'altra banda, la gestió simultània de variables numèriques i quantitats ingents d'informació qualitativa no respon exactament a les situacions per a les que les tècniques de clustering pures han estat pensades.KLASS és una eina de classificació parametritzable (quant als criteris d'agregació i les mètriques) capaç d'emprar informació semàntica per a dirigir el procés de classificació. Una de les seves característiques més destacables és l'ús conjunt d'informació qualitativa i quantitativa en la descripció dels objectes.L'objectiu principal d'aquest treball ha estat superar les limitacions de les tècniques de l'Estadística i de la Intel·ligència Artificial en la classificació de dominis poc estructurats.Entre d'altres resultats cal destacar una estratègia mixta de classificació que:- incorpora al procés de classificació coneixement parcial (ja no serà necessari que sigui complet) i/o no homogeni que tingui l'expert sobre el domini. Aquest coneixement es formalitza en CP1 (càlcul de predicats de primer ordre), permetent màxima potència expressiva i flexibilitat, i s'utilitza per construir una partició inicial sobre el domini induïda per les regles que equival a empaquetar "trossos" de coneixement en unitats funcionals, introduint informació semàntica al sistema a partir de la qual procedir amb una classificació per veïns recíprocs encadenats (de complexitat quadràtica). Aquesta seria la contribució principal de la present tesi i, entre altres coses, ofereix l'oportunitat de fer intervenir, en les regles, variables derivades de les observades. En aquest punt, el mecanisme és especialment potent i dona la possibilitat d'estudiar les dades simultàniament en diferents sistemes de coordenades.- permet treballar simultàniament amb variables qualitatives i quantitatives, tot mantenint la representació simbòlica d'aquestes darreres i evitant la categorització de les primeres. Això ha suscitat la definició d'un representat de classe per a les variables qualitatives, que constitueix una segona aportació d'aquest treball, i permet un tractament homogeni de:- variables quantitatives i qualitatives- classes i individus ( en conseqüència, fa possible la integració de les classes induïdes per les regles en una única jerarquia final).Treballar amb aquest tipus de matrius requereix detenir-se en la definició d'una funció que avaluació la distància entre individus. S'ha definit la família de distàncies mixtes d2 (_r,_r)(i, i0), estudiant-ne algunes propietats teòriques i aportant una proposta pels valors dels paràmetres (_r, _r). No es té notícia que una formulació d'aquest estil hagi estat abans utilitzada.I una metodologia de treball iterativa que, partint de les dades observacionals i el coneixement de l'expert, integra el proc´es anterior amb eines d'ajuda a la interpretació de les classes, de tal forma que s'obtingui finalment una classificació "satisfactòria", d'acord amb els objectius de l'expert.Aquesta metodologia resol la dificultat que per ell suposa formalitzar el seu coneixement de forma completa i precisa en dominis poc estructurats, ocasionada per l'existència de regles que aplica inconscientment i que, havent adquirit amb l'experiència, inicialment no és capaç de formalitzar.En el camp d'ajudes a la interpretació de les classes (actualment poc automatitzada en Estadística) es fan bàsicament dues contribucions · s'aporta una forma ràpida de mesurar _¸(P1,P2) la diferència entre dues classificacions, orientada a fer comparacions i, eventualment, avaluar la qualitat d'una classificació. El càlcul d'aquest coeficient es basa en la construcció de la taula de contingència de la partició producte i · un sistema de caracterització de la classificació que detecta les variables identificadores d'algunes classes (basant-se en un proc´es de condicionament progressiu). Aquesta tècnica descansa també sobre el concepte de representant de classe definit anteriorment i, a més de dotar al classificador de certa capacitat explicativa, dóna lloc a un procediment de generació automàtica de regles, que podran formar part de la base de coneixement d'un sistema de diagnòstic basat en el coneixement per dominis més complexos que els tractables actualment, la qual cosa suposa una contribució a l'apertura d'un canal d'apropament de l'Estadística i la Intel·ligència Artificial. / Por sus características intrínsecas (coexistencia de variables cuantitativas y cualitativas de gran número de modalidades , conocimiento adicional del experto acerca de la estructura del dominio), los dominios poco estructurados constituyen problemas difíciles de tratar con las técnicas actuales en Estadística e Inteligencia Artificial. A grandes rasgos, la estructura compleja de estos dominios hace que la construcción de una base de conocimiento completo sobre ellos, para un sistema de diagnostico, se vuelva prácticamente inabordable y que el clustering (basado en distancias, que se sitúan en el plano sintáctico) tenga un comportamiento pobre; por otro lado, la gestión simultánea de variables numéricas y cantidades ingentes de información cualitativa no responde exactamente a las situaciones para las que las técnicas de clustering puras fueron pensadas.KLASS es una herramienta de clasificación parametrizable (en cuanto a los criterios de agregación y las métricas) capaz de emplear información semántica para dirigir el proceso de clasificación. Una de sus características más destacables es el uso conjunto de información cuantitativa y cualitativa en la descripción de los objetos.El objetivo principal de este trabajo ha sido superar las limitaciones de las técnicas de la Estadística y de la Inteligencia Artificial para la clasificación de dominios poco estructurados. Entre otros resultados, cabe destacar:Una estrategia mixta de clasificación que: - incorpora al proceso de clasificación conocimiento parcial (ya no será necesario que sea completo) y/o no homogéneo que tenga el experto sobre el dominio.Este conocimiento se formaliza en CP1, permitiendo máxima potencia expresiva y flexibilidad, y se utiliza para construir una partición inicial inducida por las reglas equivalente a empaquetar trozos de conocimiento en unidades funcionales y que supone introducir información semántica al sistema a partir de la cual proceder a una clasificación por vecinos recíprocos encadenados (de complejidad cuadrática). Esta seria la contribución principal de la presente tesis y, entre otras cosas, ofrece la oportunidad de hacer intervenir, en las reglas, variables derivadas de las observadas. En este punto, el mecanismo es especialmente potente y da la posibilidad de estudiar los datos bajo distintos sistemas de coordenadas simultáneamente.- permite trabajar conjuntamente con variables cualitativas y cuantitativas, manteniendo la representación simbólica de estas últimas y evitando la categorización de las primeras. Ello ha suscitado la definición de un representante de clase para las variables cualitativas, que constituye una segunda aportación de este trabajoy permite un tratamiento homogéneo de:- variables cualitativas y cuantitativas.- clases e individuos (en consecuencia, hace posible la integración de las clases inducidas por las reglas en una jerarquía final).Trabajar con este tipo de matrices requiere detener-se en la definición de una función que evalué la distancia entre individuos. Se ha definido la familia de distancias mixtas d2(_r,_r)(i, i0), estudiando algunas de sus propiedades teóricas y aportando una propuesta para los valores de los parámetros (_r, _r). No se tiene noticia de que una formulación de este estilo se haya utilizado con anterioridad.Y una metodología de trabajo iterativa que, partiendo de datos observacionales y del conocimiento del experto, integra el proceso anterior con herramientas de ayuda a la interpretación de las clases, de tal forma que se obtenga finalmente una clasificación satisfactoria, de acuerdo a los objetivos del experto. Esta metodología resuelve la dificultad que para él supone formalizar su conocimiento de forma completa y precisa en dominios poco estructurados, debida a la existencia de reglas que aplica inconscientemente y que, habiendo adquirido con la experiencia, inicialmente no fue capaz de formalizar.En el campo de ayudas a la interpretación de las clases (actualmente poco automatizada en Estadística) se hacen básicamente dos contribuciones· se aporta una forma rápida de medir _¸(P1,P2) la diferencia entre dos clasificaciones, orientada a hacer comparaciones y, eventualmente, evaluar la calidad de una clasificación. El calculo de este coeficiente se basa en la construcción de la tabla de contingencia de la partición producto y· un sistema de caracterización de la clasificación que detecta las variables identificadoras de algunas clases (basándose en un proceso de condicionamiento progresivo). Esta técnica descansa también sobre el concepto de representante de clase definido anteriormente y, además de dotar al clasificador de cierta capacidad explicativa, da lugar a un procedimiento de generación automática de reglas, que podrán formar parte de la base de conocimiento de un sistema de diagnostico basado en el conocimiento para dominios más complejos que los manejables actualmente, lo cual supone una contribución a la apertura de un canal de acercamiento entre Estadística e Inteligencia Artificial. / Because of their intrinsic characteristics (coexistence of quantitative and qualitative variables the last ones with great number of modalities , additional expert knowledge on the domain structure), ill-structured domains are difficult problems for the actual statistical and artificial intelligence techniques. Briefly, construction of complete knowledge bases of the domain, to be used in diagnostic oriented systems, is almost unreachable due to the complexity of these kinds of domains. The clustering (based on distances, which are, in fact, syntactic criteria) has also a poor behaviour; actually, standard statistical techniques where not specifically designed for simultaneous treatment of numerical variables and great quantity of qualitative information.KLASS is a clustering tool that can use semantic information to guide the classification process. It is parameterized on the aggregation criteria and the metrics. One of its most important features is the use of both qualitative and quantitative information in the object descriptions.The main goal of this work is to overcome the limitations of Statistics and Artificial Intelligence techniques referred to this particular context. Among other results, one may highlight:A mixt classification strategy that:- incorporates parcial (complete knowledge is not necessary anymore) and/or no homogeneous knowledge that the expert has on the domain. This knowledge is formalized in CP1, allowing maximum expressivity and flexibility, and it is used to built an initial induced partition on the domain this is equivalent to pack knowledge pieces in functional units, introducing semantics into the system from witch a chained reciprocal neighbours classification (of quadratic cost) is performed. This is the main contribution of the thesis and, among others, it offers the opportunity of using, in the rules, variables defined as transformations of the observed ones. In this point, the mechanism is especially powerful, providing the possibility to study the data simultaneously in different coordinate systems.- manages data matrices composed of both quantitative and qualitative variables, maintaining the symbolic representation of the last ones and evoying the codification of the firsts. This suggests the definition of a class representative for qualitative variables. It constitutes a second contribution of this work, allowing an homogeneous treatement of_ quantitative and qualitative variables_ classes and individuals (as a consequence, enables the integration of the classes induced by the rules in an only final hierarchy).And an iterative working methodology that, starting with observational data and expert knowledge, integrates the previous process with some tools oriented to the interpretation of the classes in such a way that, at the end, a satisfactory classification can be obtained, according to the expert goals. This methodology solves the expert difficulties in formalizing its knowledge in a complete and precise way for ill-structured domains. Those difficulties are due to the existence of rules, acquired by experience, that the expert applies unconsciously and, initially, he was not able to formalize.Referring to the class interpretation oriented tools (nowadays, at low level of automation in Statistics) two basic contributions are made:· a quick way of measuring _¸(P1,P2) the difference between two classifications is provided. This measure is oriented to comparisons and, occasionally, to an evaluation of a classification quality. The coefficient is calculated using the product partition contingency table and· a class characterization system to detect identifier variables for some classes (based on a progressive conditioning process). This technique is also founded on the class representative defined before. It gives some explicative capacity to the classifier and it also constitutes a starting point for an automatic rules generation process. The rules generated by this process could be introduced in the knowledge base of a diagnostic oriented system for a domain of greater complexity than those that are manageable at present. This supposes a contribution on the Statistics and Artificial Intelligence approach.

Page generated in 0.0546 seconds