• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 51
  • 19
  • 15
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 184
  • 90
  • 40
  • 34
  • 30
  • 28
  • 22
  • 20
  • 18
  • 17
  • 17
  • 17
  • 16
  • 16
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

The Diffusion and Evolution of 311 Citizen Service Centers in American Cities from 1996 to 2012  - A Study to Identify the Catalysts for the Adoption of Citizen Engagement Technology

O'Byrne, John Christopher 26 May 2015 (has links)
This study of the diffusion and evolution of the 311 innovation in the form of citizen service centers and as a technology cluster has been designed to help identify the catalysts for the spread of government-to-citizen (G2C) technology in local government in order to better position future G2C technology for a more rapid rate of adoption. The 311 non-emergency number was first established in 1996 and had spread to 80 local governments across the United States by 2012. This dissertation examines: what factors contributed to the adoption of 311 in American local governments over 100,000 in population; how did the innovation diffuse and evolve over time; and why did some governments' communications with citizens became more advanced than others? Given the problem of determining causality, a three-part research design was used to examine the topic including a historical narrative, logistic regression model, and case studies from Pittsburgh, Minneapolis and St. Louis. The narrative found that the political forces of the federal government, national organizations, and policy entrepreneurs (Karch, 2007) promoted the 311 innovation to solve different problems and that it evolved beyond its original intent. The logistic regression model found that there was a statistically significant relationship between 311 adoption and the variables of higher population, violent crime rate, and the mayor-council form of government. The case studies revealed that mayors played a strong role in establishing citizen service centers in all three cities while 311 adopter Pittsburgh and non-adopter St. Louis seemed to have more in common in their G2C evolution due to severe budget constraints. With little written about the 311 innovation in academic journals, practitioners and scholars will benefit from understanding the catalysts for the diffusion and evolution of the 311 in order to determine ways to increase the rate of adoption for future G2C communication innovations. / Ph. D.
72

Time Evolution and Predictability of Social Behavior in Techno-Social Networks

Godoy Lorite, Antonia 19 January 2016 (has links)
El fet que cada vegada disposem de més dades socials de sistemes socio-tecnològics---sistemes que registren la nostra activitat diària, tals com a registres de targeta de crèdit, registres de trucades telefòniques, correu electrònic, etc.---i les xarxes socials on-line---com facebook, twitter, instagram, etc.---, ha fet possible estudiar el comportament humà des de diferents perspectives. Descobrir els patrons darrere d'aquestes dades no només aportarà un millor coneixement de la societat, sinó que també beneficiaria a la societat en diferents aspectes, com l'adaptació de tecnologia a les necessitats socials o el disseny de millors polítiques per evitar la propagació d'epidèmies. L'objectiu d'aquesta tesi és precisament descobrir patrons estructurals i temporals en els sistemes socials i desenvolupar models predictius sobre la seva base. En particular, analitzem l'evolució a llarg termini en una xarxa de correu electrònic amb més d'1.000 persones al llarg de quatre anys consecutius. Veiem que, encara que l'evolució de la comunicació entre usuaris és altament impredictible, l'evolució macro de les xarxes de comunicació social segueix lleis estadístiques ben definides, caracteritzades pel decaïment exponencial de les variacions logarítmicas del pes de les comunicacions entre usuaris i del pes dels individus a la xarxa. Al mateix temps, trobem que els individus tenen una forma característica de comunicar-se, i aquesta no canvia en anys. Quant a la predictabilidad, desenvolupem dos models basats en xarxes: un model de recomanació (que prediu votacions d'usuaris sobre objectes) i un model d'inferència temporal (que prediu successos en el temps). El nostre model de recomanació és escalable i considerablement més precís en les seves prediccions que els algorismes actuals per bases de dades de milions de votacions. L'enfocament es basa en la suposició que hi ha grups de persones i d'articles (per exemple, pel·lícules, llibres, etc.) i que les preferències d'un individu sobre un element donat depenen del grups als que pertanyin. Però a més, permet que cada individu i cada article pertanyin simultàniament a diferents grups. Les comunitats superposades resultants i les prediccions sobre les votacions poden inferir-se amb un algorisme escalable de maximització d'expectatives basat en una aproximació variacional. En el mo / El hecho que cada vez dispongamos de más datos sociales de sistemas socio-tecnológicos---sistemas que registran nuestra actividad diaria, tales como registros de tarjeta de crédito, registros de llamadas telefónicas, correo electrónico, etc.---y las redes sociales on-line---como facebook, twitter, instagram, etc.---, ha hecho posible estudiar el comportamiento humano desde diferentes perspectivas. Descubrir los patrones detrás de estos datos no sólo aportará un mejor conocimiento de la sociedad, sino que también beneficiaría a la sociedad en diferentes aspectos, como la adaptación de la tecnología a las necesidades sociales o el diseño de mejores políticas para evitar la propagación de epidemias. El objetivo de esta tesis es precisamente descubrir patrones estructurales y temporales en los sistemas sociales y desarrollar modelos predictivos en base a ellos. En particular, analizamos la evolución a largo plazo en una red de correo electrónico con más de 1.000 personas a lo largo de cuatro años consecutivos. Vemos que, aunque la evolución de la comunicación entre usuarios es altamente impredecible, la evolución macro de las redes de comunicación social sigue leyes estadísticas bien definidas, caracterizadas por el decaimiento exponencial de las variaciones logarítmicas del peso de las comunicaciones entre usuarios y del peso de los individuos en la red. Así mismo, encontramos que los individuos presentan una forma caracteristica de comunicarse, y esta no cambia en años. En cuanto a la predictibilidad, desarrollamos dos modelos basados en redes: un modelo de recomendación (que predice votaciones de usuarios sobre objetos) y un modelo de inferencia temporal (que predice sucesos en el tiempo). Nuestro modelo de recomendación es escalable y considerablemente más preciso en sus predicciones que los algoritmos actuales para bases de datos de millones de votaciones. El enfoque se basa en la suposición de que hay grupos de personas y de artículos (por ejemplo, películas, libros, etc.) y que las preferencias de un individuo sobre un artículo dado dependen de los grupos a los que pertenezcan. Pero además, permitimos que cada individuo y cada artículo pertenecan simultáneamente a diferentes grupos. Las comunidades superpuestas resultantes y las predicciones sobre las votaciones pueden inferirse con un algoritmo de maximiz / The increasing availability of social data sources from socio-technological systems ---systems that record our daily activity such as credit card records, call-phone records, email, etc.--- and on-line social networks ---such as facebook, twitter, instagram, etc.---, has made it possible to study human behavior from different perspectives. Uncovering the patterns behind this data would not only give us a better knowledge about our society but could also benefit our society in a number of ways such as adapting technology to social needs or design better policies to avoid spread of epidemics. The aim of this thesis is precisely to uncover both structural and temporal patterns in social systems and to develop predictive models based on them. In particular, we analyze the long-term evolution in an email network with over 1,000 individuals throughout four consecutive years. We find that, although the evolution of individual ties is highly unpredictable, the macro-evolution of social communication networks follows well-defined statistical laws, characterized by exponentially decaying log-variations of the weight of social ties and of individuals' social strength. At the same time, we find that individuals have social signatures that are remarkably stable over the scale of several years. Regarding predictability, we develop two network-based models: a recommender model, and a temporal inference model. Our recommender model makes scalable predictions and is considerably more accurate than current algorithms for large datasets. The approach is based on the assumption that there are groups of individuals and of items (e.g. movies, books, etc.), and that the preferences of an individual for an given item depend on their group memberships. Importantly, we allow each individual and each item to belong simultaneously to different groups. The resulting overlapping communities and the predicted preferences can be inferred with a scalable expectation-maximization algorithm based on a variational approximation. In the temporal inference model users can belong simultaneously to different groups, but also the time intervals belong to overlapping communities. The results suggest that the algorithm is able to distinguish real events of non-events almost perfectly.
73

Large-scale simulation of population dynamics for socio-demographic analysis

Montañola i Sales, Cristina 24 April 2015 (has links)
Computer modelling and complex systems simulation have dominated the scientific debate over the last decade, providing important outcomes in biology, geology and life sciences. In the social sciences, the number of research groups currently developing research programs in this direction is increasing. The results are extremely promising since simulation technologies have the potential to become an essential tool in the field. Agent-based modelling is widely recognised as one of the techniques with more potential to develop useful simulations of social interacting systems. The approach allows to specify complex behavioural and cognitive rules at the individual level; and through aggregation, the output at the macro level can be derived. Increasingly, the output of micro-level simulation models is used as an input to policy models. Policy models not only requires detailed micro-level data, but also significant compute power since the number of agents and interactions can be extremely large in some cases. High performance computing offers a massive supercomputing power which allows us to simulate a large artificial society. In that context, parallel simulation could provide an alternative to speed up the execution of such compute-intensive socio-demographic models. It deals with techniques that allow the use of multiple processors to run a single simulation. Although research in parallel simulation has been around for more than two decades, the number of applications in the social sciences is scarce. In this thesis, we present a methodology for simulating population dynamics at a large-scale. Specifically, we developed a parallel simulation framework to run demographic models. It simulates the interactions of individuals in a society so the population projection can be obtained. Two of the main obstacles hindering the use of agent-based simulation in practice are (a) its scalability when the analysis requires large-scale models, and (b) its ease-of-use, especially for users with no programming experience. Our approach proposes a solution for both challenges. On one hand, we give a solution in to simulate large social systems in a parallel environment. We show its potential by studying the performance of our approach by identifying the factors that affect the simulation execution time. Moreover, we investigate the impact of three well-known configurations of computer architecture. Since the application of parallel simulation in demography is new, it is useful to quantify the effect of these factors on performance. On the other hand, we provide a graphical user interface which allows modellers with no programming background to specify agent-based demographic models and transparently run them in parallel. We believe this will help to remove a major barrier on using simulation although we are aware technical knowledge is necessary to execute scenarios in High Performance Computing facilities. Two cases studies are presented to support the feasibility of the approach for the social sciences. The first case under study carries out an analysis of the evolution of the emigrated population of The Gambia between 2001 and 2011, a relevant period for immigrations in Spain. The second case study simulates the socio-demographic changes of South Korean during one hundred years. The objective is to rate the feasibility of our methodology for forecasting individual demographic processes. Our results show that agent-based modelling can be very useful in the study of demography. Furthermore, the use of a parallel environment enables the use of larger scale demographic models / En las últimas décadas la modelización computacional y la simulación de sistemas complejos han dominado el debate científico, dando lugar a resultados importantes en áreas como la biología, la geología o las ciencias de la vida. En ciencias sociales el número de grupos de investigación que desarrollan programas en esta dirección no para de crecer. Los resultados son extremadamente prometedores ya que la simulación tiene el potencial para llegar a ser una herramienta esencial en el ámbito de los estudios sociales. La modelización basada en agentes es ampliamente reconocida como una de las técnicas con mayor potencial para desarrollar simulaciones de sistemas sociales. Este enfoque nos permite especificar reglas de comportamiento y cognición complejas a nivel del individuo y, a través de su agregación, se obtienen resultados a nivel macroscópico. Cada vez más, los resultados individualizados de los modelos de simulación son usados como entrada de modelos de políticas de planificación familiares. Estos modelos no sólo requieren una gran cantidad de datos a nivel microscópico, sino que además precisan de una capacidad de cálculo significativa ya que el nombre de agentes y sus interacciones puede llegar a ser muy grande. La computación de altas prestaciones ofrece una capacidad de cálculo masiva que nos permite simular a gran escala sociedades artificiales, proveyendo una alternativa para acelerar la ejecución de estos modelos socio-demográficos tan intensivos en sus cálculos. Aunque la investigación en simulación paralela tiene más de veinte años, el número de aplicaciones en las ciencias sociales es escaso. En esta tesis presentamos una metodología para simular dinámicas poblaciones a gran escala. Concretamente, hemos desarrollado un entorno de simulación paralela que permite emular modelos demográficos, simulando las interacciones de individuos en una sociedad con el fin de obtener la proyección de la población. Dos de los principales obstáculos para el uso de la simulación basada en agentes en su práctica son (a) la escalabilidad cuando el análisis requiere modelos muy grandes, y (b) su facilidad de uso particularmente en usuarios que no tienen experiencia en programación. Nuestro enfoque propone una solución para ambos retos. Por una parte, proponemos una solución a la simulación a gran escala de sistemas sociales en un entorno paralelo. Mostramos su potencial estudiando su rendimiento, identificando los factores que la hacen más sensible al tiempo de ejecución e investigando el impacto de tres configuraciones conocidas de la arquitectura. Puesto que la aplicación de la simulación paralela en demografía es nueva, es útil calcular el efecto de estos factores en el rendimiento de la metodología que proponemos. Por otra parte, el entorno desarrollado incluye una interface gráfica de usuario que permite a usuarios sin experiencia en programación especificar modelos demográficos basados en agentes y ejecutarlos de forma transparente en un entorno paralelo. Con este enfoque, ayudamos a superar una gran barrera en el uso de la simulación aunque un conocimiento técnico para ejecutar escenarios en una arquitectura de altas prestaciones sea necesario. Finalmente, presentamos dos casos de estudio que ponen de manifiesto el alcance de nuestro enfoque para las ciencias sociales. El primero realiza un análisis de la evolución de la población gambiana emigrada a España entre 2001 y 2011, un periodo especialmente relevante para las inmigraciones en España. El segundo caso simula los cambios sociodemográficos de Corea del Sud durante cien años. El objetivo es mostrar lo que nuestra metodología puede aportar para el estudio en profundidad de procesos demográficos. Nuestros resultados muestran que la modelización basada en agentes puede ser de gran utilidad en demografía. Así mismo, el uso de un entorno de computación paralelo nos permite simular la demografía poblacional a gran escala.
74

L'us de la informació simbòlica en l'automatització del tractament estadístic de dominis poc estructurats

Gibert Oliveras, Karina 30 January 1995 (has links)
Per les seves característiques intrínseques (coexistència de variables quantitatives i qualitatives amb gran nombre de modalitats , coneixement addicional sobre l'estructura del domini per part d'un expert), els dominis poc estructurats constitueixen problemes difícils de tractar amb les tècniques actuals en Estadística i Intel·ligència Artificial. A grans trets, l'estructura complexa d'aquests dominis fa que la construcció d'una base de coneixement complet sobre el domini, per a un sistema de diagnòstic, esdevingui pràcticament inabordable i que el clustering (basat en distàncies, que se situen en un pla sintàctic) tingui un comportament pobre; d'altra banda, la gestió simultània de variables numèriques i quantitats ingents d'informació qualitativa no respon exactament a les situacions per a les que les tècniques de clustering pures han estat pensades.KLASS és una eina de classificació parametritzable (quant als criteris d'agregació i les mètriques) capaç d'emprar informació semàntica per a dirigir el procés de classificació. Una de les seves característiques més destacables és l'ús conjunt d'informació qualitativa i quantitativa en la descripció dels objectes.L'objectiu principal d'aquest treball ha estat superar les limitacions de les tècniques de l'Estadística i de la Intel·ligència Artificial en la classificació de dominis poc estructurats.Entre d'altres resultats cal destacar una estratègia mixta de classificació que:- incorpora al procés de classificació coneixement parcial (ja no serà necessari que sigui complet) i/o no homogeni que tingui l'expert sobre el domini. Aquest coneixement es formalitza en CP1 (càlcul de predicats de primer ordre), permetent màxima potència expressiva i flexibilitat, i s'utilitza per construir una partició inicial sobre el domini induïda per les regles que equival a empaquetar "trossos" de coneixement en unitats funcionals, introduint informació semàntica al sistema a partir de la qual procedir amb una classificació per veïns recíprocs encadenats (de complexitat quadràtica). Aquesta seria la contribució principal de la present tesi i, entre altres coses, ofereix l'oportunitat de fer intervenir, en les regles, variables derivades de les observades. En aquest punt, el mecanisme és especialment potent i dona la possibilitat d'estudiar les dades simultàniament en diferents sistemes de coordenades.- permet treballar simultàniament amb variables qualitatives i quantitatives, tot mantenint la representació simbòlica d'aquestes darreres i evitant la categorització de les primeres. Això ha suscitat la definició d'un representat de classe per a les variables qualitatives, que constitueix una segona aportació d'aquest treball, i permet un tractament homogeni de:- variables quantitatives i qualitatives- classes i individus ( en conseqüència, fa possible la integració de les classes induïdes per les regles en una única jerarquia final).Treballar amb aquest tipus de matrius requereix detenir-se en la definició d'una funció que avaluació la distància entre individus. S'ha definit la família de distàncies mixtes d2 (_r,_r)(i, i0), estudiant-ne algunes propietats teòriques i aportant una proposta pels valors dels paràmetres (_r, _r). No es té notícia que una formulació d'aquest estil hagi estat abans utilitzada.I una metodologia de treball iterativa que, partint de les dades observacionals i el coneixement de l'expert, integra el proc´es anterior amb eines d'ajuda a la interpretació de les classes, de tal forma que s'obtingui finalment una classificació "satisfactòria", d'acord amb els objectius de l'expert.Aquesta metodologia resol la dificultat que per ell suposa formalitzar el seu coneixement de forma completa i precisa en dominis poc estructurats, ocasionada per l'existència de regles que aplica inconscientment i que, havent adquirit amb l'experiència, inicialment no és capaç de formalitzar.En el camp d'ajudes a la interpretació de les classes (actualment poc automatitzada en Estadística) es fan bàsicament dues contribucions · s'aporta una forma ràpida de mesurar _¸(P1,P2) la diferència entre dues classificacions, orientada a fer comparacions i, eventualment, avaluar la qualitat d'una classificació. El càlcul d'aquest coeficient es basa en la construcció de la taula de contingència de la partició producte i · un sistema de caracterització de la classificació que detecta les variables identificadores d'algunes classes (basant-se en un proc´es de condicionament progressiu). Aquesta tècnica descansa també sobre el concepte de representant de classe definit anteriorment i, a més de dotar al classificador de certa capacitat explicativa, dóna lloc a un procediment de generació automàtica de regles, que podran formar part de la base de coneixement d'un sistema de diagnòstic basat en el coneixement per dominis més complexos que els tractables actualment, la qual cosa suposa una contribució a l'apertura d'un canal d'apropament de l'Estadística i la Intel·ligència Artificial. / Por sus características intrínsecas (coexistencia de variables cuantitativas y cualitativas de gran número de modalidades , conocimiento adicional del experto acerca de la estructura del dominio), los dominios poco estructurados constituyen problemas difíciles de tratar con las técnicas actuales en Estadística e Inteligencia Artificial. A grandes rasgos, la estructura compleja de estos dominios hace que la construcción de una base de conocimiento completo sobre ellos, para un sistema de diagnostico, se vuelva prácticamente inabordable y que el clustering (basado en distancias, que se sitúan en el plano sintáctico) tenga un comportamiento pobre; por otro lado, la gestión simultánea de variables numéricas y cantidades ingentes de información cualitativa no responde exactamente a las situaciones para las que las técnicas de clustering puras fueron pensadas.KLASS es una herramienta de clasificación parametrizable (en cuanto a los criterios de agregación y las métricas) capaz de emplear información semántica para dirigir el proceso de clasificación. Una de sus características más destacables es el uso conjunto de información cuantitativa y cualitativa en la descripción de los objetos.El objetivo principal de este trabajo ha sido superar las limitaciones de las técnicas de la Estadística y de la Inteligencia Artificial para la clasificación de dominios poco estructurados. Entre otros resultados, cabe destacar:Una estrategia mixta de clasificación que: - incorpora al proceso de clasificación conocimiento parcial (ya no será necesario que sea completo) y/o no homogéneo que tenga el experto sobre el dominio.Este conocimiento se formaliza en CP1, permitiendo máxima potencia expresiva y flexibilidad, y se utiliza para construir una partición inicial inducida por las reglas equivalente a empaquetar trozos de conocimiento en unidades funcionales y que supone introducir información semántica al sistema a partir de la cual proceder a una clasificación por vecinos recíprocos encadenados (de complejidad cuadrática). Esta seria la contribución principal de la presente tesis y, entre otras cosas, ofrece la oportunidad de hacer intervenir, en las reglas, variables derivadas de las observadas. En este punto, el mecanismo es especialmente potente y da la posibilidad de estudiar los datos bajo distintos sistemas de coordenadas simultáneamente.- permite trabajar conjuntamente con variables cualitativas y cuantitativas, manteniendo la representación simbólica de estas últimas y evitando la categorización de las primeras. Ello ha suscitado la definición de un representante de clase para las variables cualitativas, que constituye una segunda aportación de este trabajoy permite un tratamiento homogéneo de:- variables cualitativas y cuantitativas.- clases e individuos (en consecuencia, hace posible la integración de las clases inducidas por las reglas en una jerarquía final).Trabajar con este tipo de matrices requiere detener-se en la definición de una función que evalué la distancia entre individuos. Se ha definido la familia de distancias mixtas d2(_r,_r)(i, i0), estudiando algunas de sus propiedades teóricas y aportando una propuesta para los valores de los parámetros (_r, _r). No se tiene noticia de que una formulación de este estilo se haya utilizado con anterioridad.Y una metodología de trabajo iterativa que, partiendo de datos observacionales y del conocimiento del experto, integra el proceso anterior con herramientas de ayuda a la interpretación de las clases, de tal forma que se obtenga finalmente una clasificación satisfactoria, de acuerdo a los objetivos del experto. Esta metodología resuelve la dificultad que para él supone formalizar su conocimiento de forma completa y precisa en dominios poco estructurados, debida a la existencia de reglas que aplica inconscientemente y que, habiendo adquirido con la experiencia, inicialmente no fue capaz de formalizar.En el campo de ayudas a la interpretación de las clases (actualmente poco automatizada en Estadística) se hacen básicamente dos contribuciones· se aporta una forma rápida de medir _¸(P1,P2) la diferencia entre dos clasificaciones, orientada a hacer comparaciones y, eventualmente, evaluar la calidad de una clasificación. El calculo de este coeficiente se basa en la construcción de la tabla de contingencia de la partición producto y· un sistema de caracterización de la clasificación que detecta las variables identificadoras de algunas clases (basándose en un proceso de condicionamiento progresivo). Esta técnica descansa también sobre el concepto de representante de clase definido anteriormente y, además de dotar al clasificador de cierta capacidad explicativa, da lugar a un procedimiento de generación automática de reglas, que podrán formar parte de la base de conocimiento de un sistema de diagnostico basado en el conocimiento para dominios más complejos que los manejables actualmente, lo cual supone una contribución a la apertura de un canal de acercamiento entre Estadística e Inteligencia Artificial. / Because of their intrinsic characteristics (coexistence of quantitative and qualitative variables the last ones with great number of modalities , additional expert knowledge on the domain structure), ill-structured domains are difficult problems for the actual statistical and artificial intelligence techniques. Briefly, construction of complete knowledge bases of the domain, to be used in diagnostic oriented systems, is almost unreachable due to the complexity of these kinds of domains. The clustering (based on distances, which are, in fact, syntactic criteria) has also a poor behaviour; actually, standard statistical techniques where not specifically designed for simultaneous treatment of numerical variables and great quantity of qualitative information.KLASS is a clustering tool that can use semantic information to guide the classification process. It is parameterized on the aggregation criteria and the metrics. One of its most important features is the use of both qualitative and quantitative information in the object descriptions.The main goal of this work is to overcome the limitations of Statistics and Artificial Intelligence techniques referred to this particular context. Among other results, one may highlight:A mixt classification strategy that:- incorporates parcial (complete knowledge is not necessary anymore) and/or no homogeneous knowledge that the expert has on the domain. This knowledge is formalized in CP1, allowing maximum expressivity and flexibility, and it is used to built an initial induced partition on the domain this is equivalent to pack knowledge pieces in functional units, introducing semantics into the system from witch a chained reciprocal neighbours classification (of quadratic cost) is performed. This is the main contribution of the thesis and, among others, it offers the opportunity of using, in the rules, variables defined as transformations of the observed ones. In this point, the mechanism is especially powerful, providing the possibility to study the data simultaneously in different coordinate systems.- manages data matrices composed of both quantitative and qualitative variables, maintaining the symbolic representation of the last ones and evoying the codification of the firsts. This suggests the definition of a class representative for qualitative variables. It constitutes a second contribution of this work, allowing an homogeneous treatement of_ quantitative and qualitative variables_ classes and individuals (as a consequence, enables the integration of the classes induced by the rules in an only final hierarchy).And an iterative working methodology that, starting with observational data and expert knowledge, integrates the previous process with some tools oriented to the interpretation of the classes in such a way that, at the end, a satisfactory classification can be obtained, according to the expert goals. This methodology solves the expert difficulties in formalizing its knowledge in a complete and precise way for ill-structured domains. Those difficulties are due to the existence of rules, acquired by experience, that the expert applies unconsciously and, initially, he was not able to formalize.Referring to the class interpretation oriented tools (nowadays, at low level of automation in Statistics) two basic contributions are made:· a quick way of measuring _¸(P1,P2) the difference between two classifications is provided. This measure is oriented to comparisons and, occasionally, to an evaluation of a classification quality. The coefficient is calculated using the product partition contingency table and· a class characterization system to detect identifier variables for some classes (based on a progressive conditioning process). This technique is also founded on the class representative defined before. It gives some explicative capacity to the classifier and it also constitutes a starting point for an automatic rules generation process. The rules generated by this process could be introduced in the knowledge base of a diagnostic oriented system for a domain of greater complexity than those that are manageable at present. This supposes a contribution on the Statistics and Artificial Intelligence approach.
75

Contribuciones al estudio del problema de la clasificación mediante grafos piramidales

Capdevila i Marquès, Carles 30 September 1993 (has links)
En esta memoria se ha desarrollado una metodología para abordar problemas relativos a la clasificación y de un conjunto de objetos o individuos de una determinada población, mediante unas estructuras llamadas "Pirámides", introducidas por E. Diday en 1984, y que pretenden ser una generalización del concepto de Jerarquía, en el sentido de permitir la existencia no de grupos disjuntos o encajados, sino también de grupos solapados, y por tanto permitir clasificaciones en las que los grupos en que queda dividida la población a un determinado nivel, no tengan que ser forzosamente particiones de la misma, como pasa con las clasificaciones inducidas por las Jerarquías, sino que puedan ser recubrimientos. Este tipo de clasificaciones permite pues que un determinado individuo pueda pertenecer a dos grupos de una misma clasificación y por tanto, en la realidad, pueda ser caracterizado por las propiedades de los distintos grupos a los que pertenezca y no por las de un único grupo como en el caso jerárquico, con lo cual este nuevo modelo de clasificación y representación de datos se adaptará a la realidad que aquel. En primer lugar se ha situado este nuevo modelo de representación en el marco del Análisis Multivariante y se han presentado algunos conceptos y resultados ya conocidos, pero imprescindibles para el desarrollo del tema: Caracterización de las matrices asociadas a las disimilaridades piramidales, relación con los preordenes compatibles, etc. Se recuerda que toda disimilaridad ultramétrica es también piramidal y que, en consecuencia, toda Jerarquía Total Indexada es una Pirámide Indexada, con lo cual podemos considerar a los modelos piramidales como una generalización de los modelos jerárquicos. Se ha desarrollado también una nueva formalización de las bases sobre las que se amparan los modelos de representación y clasificación. En este sentido se ha precisado la axiomática y se han dado nuevos teoremas de Existencia y Unicidad de la pirámide inducida por una disimilaridad piramidal y recíprocamente, de la disimilaridad piramidal inducida por una pirámide.Una vez establecidos los resultados teóricos mencionados, se ha profundizado en otros aspectos teóricos conducentes a hacer que los métodos piramidales puedan llegar a ser útiles en la realización de trabajos prácticos como lo han sido los modelos jerárquicos clásicos.En este sentido se ha diseñado un algoritmo de clasificación piramidal, inspirado en el descrito por el propio Diday, convenientemente modificado, con el fin de obtener una pirámide indexada lo más sencilla posible desde el punto de de la representación visual.Se han caracterizado los grupos sobrantes en una pirámide indexada y se ha demostrado que son los únicos que pueden ser eliminados de una pirámide sin que ello suponga pérdida de información sobre la clasificación. Se ha definido un índice de agregación adecuado a los modelos de representación piramidal y se ha demostrado que el algoritmo de clasificación piramidal descrito, utilizando un tal índice de agregación, produce siempre una pirámide indexada en sentido estricto, sin inversiones, sin cruzamientos y sin grupos sobrantes.Finalmente se ha efectuado una programación informática del algoritmo en Turbo Prolog. El programa, llamado PIR. PRO, a partir de una matriz de disimilaridad dada sobre los individuos de la población, efectúa una clasificación piramidal de la misma por los métodos del Mínimo, del Máximo y del UPGMA, obteniéndose como resultado una de las pirámides indexadas correspondientes, la disimilaridad piramidal asociada, el grafo piramidal y como coeficientes de adecuación entre la disimilaridad inicial y la piramidal obtenida, el coeficiente de correlación cofenética (rho) y el coeficiente gamma de Goodman-Kurskal.Debido a las restricciones impuestas en el algoritmo, se establece que el algoritmo piramidal del mínimo produce siempre la jerarquía del mínimo, que como es sabido, es única.Un sencillo experimento de simulación nos confirma la mejora que suponen las representaciones piramidales frente a las ultramétricas, en el sentido de ser próxima la realidad.En problemas reales de clasificación, una vez obtenida la pirámide es necesario evaluar el nivel de adecuación de la estructura piramidal obtenida, a la estructura inicial de los datos. Para ello disponemos de numerosos coeficientes de adecuación, en nuestro caso hemos considerado el coeficiente de correlación cofenética y el de Goodman-Kurskal. A pesar de disponer de estos parámetros, en un caso concreto, es difícil valorar hasta qué punto sus valores realmente significativos. Así pues, seria conveniente encontrar algún criterio que nos permitiese evaluar el nivel de significación de dichos parámetros. En este sentido hemos intentado una validación estadística de los métodos piramidales del mínimo y del máximo así como la obtención de algún criterio evaluar la potencia-eficiencia de los mismos.Debido al desconocimiento de las distribuciones de los estadísticos utilizados (gamma y rho), se han tratado cuestiones inferenciales un punto de vista empírico. Mediante algunas pruebas de simulación por métodos de Monte Carlo se ha tabulado, a partir de la distribución muestral del estadístico gamma, un test de significación de la bondad de ajuste de una representación piramidal por los métodos del mínimo y del máximo. Asimismo se ha establecido que, en general, el método piramidal del máximo recupera mejor una posible estructura piramidal subyacente en la población a clasificar que el método del mínimo, a menos que pueda preverse que la estructura de la población inicial se asemeje a una jerarquía encadenada. / In this memory it is developed a methodology to tackle problems about the classifications and representations population's members through structures called "Pyramids". Pyramidal trees, introduced by E. Diday, are a logical generalization of ultrametric trees. They are less restrictive structures where recovering replaces the concept of partition, obtaining a representation which bears information is closer to the dissimilarities. A new formalization of mathematics bases of the pyramidal models is developed. In this sense, the axiomatic has fixed and new theorems of existence and uniqueness of the pyramid induced from pyramidal dissimilarity, they are considered, and mutually. An algorithm of pyramidal classification is designed in order to obtain an easiest pyramid. The spare groups in an indexed pyramid are characterized. A suitable criterion to the pyramidal models is definited to calculate the distance between groups. From mentioned algorithm and using this criterion indexed pyramid in strict sense, without reversals, crossings and spare groups. Moreover, a computer programming of the algorithm is developed in Turbo Prolog.In applied problems is necessary to measure the fitting between the pyramidal tree from some algorithm and the initial structure. Using some simulation techniques by means of Monte Carlo methods, sample distribution of is obtained, to tabulate a goodness-of-fit test of the pyramidal representation using the minimum method and the maximum method. Finally, we have studied the efficiency of the maximum method and the minimum method through other simulation tests.
76

Una variante de sistemas P para el modelado de ecosistemas

Cardona, Mónica 16 July 2010 (has links)
No description available.
77

Contribuciones al estudio de cadenas de Markov finitas mediante computación natural

Zaragoza Ramírez, Alba 22 February 2006 (has links)
En el estudio de las cadenas de Markov la clasificación de los estados es una de lascaracterísticas más importantes ya que de ella van a depender otras propiedades comoson por ejemplo la convergencia de la sucesión formada por las potencias n-ésimas dela matriz de transición asociada y por lo tanto su comportamiento asintótico. Este problema se ha abordado desde el campo de la computación natural mediante dosalgoritmos biológicos basados en ADN y mediante el diseño de dos P sistemas. Ambasmetodologías de computación natural son aleatorias si bien mientras que con ADN seobtienen resultados aleatorios, estimaciones, con los P sistemas se obtienencálculos exactos. Por el contrario, la ventaja que presentan los algoritmos basadosen ADN es que hoy en día ya pueden llevarse a la práctica si bien cabe perfeccionarde manera substancial las técnicas de laboratorio. Finalmente remarcar que lacomputación natural abre la puerta a un nuevo e interesante modelo de computación que exige un cambio en la forma de pensar.
78

Models under uncertainty to support sow Herd management in the context of the pork supply chain

Rodríguez Sánchez, Sara Verónica 26 February 2010 (has links)
En els últims anys s'ha observat un canvi radical en l'estructura del sector porcí.Les explotacions porcines estan sent cada vegada més especialitzades i la grandàriade les seves operacions ha anat en augment. A més, les explotacions porcinesmodernes estan tendint a integrar i coordinar les seves operacions en Cadenes desubministrament del sector porcí (PSC en anglès). L'objectiu general de la tesi vaser formular un conjunt de models per a donar suport a la gestió del ramat de trugesreproductores i la producció de garrins dintre d'un context de cadena desubministrament, donant respostes pràctiques a preguntes rellevants sovintpreguntades per qui prenen les decisions. Així les principals decisions estratègiquesi tàctiques relacionades amb la gestió del ramat de truges reproductores i laproducció de garrins en un context de cadena de subministrament (PSC) van serconsiderades.Bàsicament quatre models sota incertesa van ser desenvolupats. El primer va ser laformulació d'un programa lineal d'un model semi-Markovià per al disseny de lesinstal·lacions de granges. Es va mostrar que la distribució del ramat basada enestats fisiològics i moviments entre instal·lacions fou útil pel càlcul dels espaisnecessaris per a cada instal·lació. La formulació va considerar les recentsregulacions de la Unió Europea relacionades amb el benestar animal i el cost de lesinstal·lacions. Continuant amb aspectes relacionats amb el benestar animal, es vadesenvolupar un marc per a la integració dels senyals clínics dintre d'un model dereemplaçament. Aquest model correspon a un procèss Markovià jeràrquic multinivell,que a més realitza una actualització de dades a través de xarxes Bayesianas.Els resultats van mostrar com la incorporació dels senyals clínics en els models dereemplaçament ha dut a millors polítiques de selecció a través d'una eficientdetecció de truges reproductores febles en el ramat. Els dos models següentsformulats sota un horitzó temporal finit han mostrat la distribució o estructura delramat evolutionant cap a l'estat estable. Variacions temporals en paràmetres opertorbacions transitòries van ser representades a través de models d'horitzó finiton diferents escenaris van capturar la incertesa del sistema. L'ús de Programació lineal va permetre explícitament incorporar restriccions de ramat més fàcilment queen una formulació amb Processos de decisió de Markov. Finalment el model deprogramació estocàstica de dues etapes amb recurs va mostrar ser una eina factibleper a tractar amb la incertesa del sistema a través d'escenaris. Beneficis addicionalsvan ser la compra de verres, la planificació de la producció i decisions dereemplaçament, tot sota un esquema d'horitzó de temps rodant.Avui dia, amb l'actual estructura del sector, és raonable pensar en models capaçosde resoldre amb major precisió els problemes que afecten a dos o més etapes de lacadena, i integrar-los a tots en algun sistema d'informació, amb la finalitat demillorar la gestió global de la cadena. Els models presentats en aquesta tesi sóneines adequades per a plantar cara a les principals decisions estratègiques itàctiques de la gestió del ramat de truges reproductores i la producció de garrins enun context de PSC / En los últimos años se ha observado un gran cambio en la estructura del sectorporcino. Las explotaciones porcinas están siendo cada vez más especializadasmientras que el tamaño de sus operaciones ha ido en aumento. Además, estántendiendo a integrar y coordinar sus operaciones en cadenas de suministro (PSC eninglés). Así, el objetivo general de la tesis fue formular un conjunto de modelospara apoyar la gestión del rebaño de cerdas reproductoras y la producción delechones dentro de un contexto de cadena de suministro, dando respuestas prácticasa preguntas relevantes a menudo questionadas por quienes toman las decisiones.De ahí que, las principales decisiones estratégicas y tácticas relacionadas con lagestión del rebaño en un contexto de cadena (PSC) fueron consideradas.Básicamente, cuatro modelos bajo incertidumbre fueron desarrollados. El primeroformula un programa lineal de un modelo semi-markoviano para el diseño de lasinstalaciones de granjas. Se mostró que la distribución de la manada basada enestados fisiológicos y movimientos entre instalaciones es útil para el cálculo de losespacios necesarios para cada instalación. La formulación consideró las recientesregulaciones de la Unión Europea relacionadas con el bienestar animal, además delcoste de las instalaciones. El segundo modelo desarrolló un marco para laintegración de las señales clínicas dentro de un modelo de reemplazamiento. Laformulación corresponde a un proceso Markoviano jerárquico multi-nivel, conactualización de datos a través de redes Bayesianas. Los resultados mostraroncómo la incorporación de las señales clínicas ha llevado a mejores políticas deselección a través de una eficiente detección de cerdas débiles en el rebaño. Lossiguientes dos modelos son formulados bajo un horizonte de tiempo finito ymuestran la distribución o estructura del rebaño moviéndose hacia el estadoestable. Las variaciones temporales en parámetros o perturbaciones transitoriasfueron incorporadas a través de modelos de horizonte finito donde diferentesescenarios representaron la incertidumbre del sistema. El uso de Programaciónlineal permitió explícitamente incorporar restricciones de rebaño más fácilmenterespecto a la formulación con Procesos de decisión de Markov. Finalmente el modelo de programación estocástica de dos etapas con recurso mostró ser unaherramienta factible para tratar con la incertidumbre del sistema a través deescenarios. Beneficios adicionales fueron la programación de cerdas jóvenes, laplaneación de la producción y decisiones de reemplazo, todo bajo un esquema dehorizonte de tiempo rodante.Hoy en día, con la actual estructura del sector, es razonable pensar en modeloscapaces de resolver con mayor precisión los problemas que afectan a dos o másetapas de la cadena, e integrarlos a todos en algún sistema de información, con elfin de mejorar la gestión global de la cadena. Por lo que los modelos presentadosen esta tesis son herramientas adecuadas para hacer frente a las principalesdecisiones estratégicas y tácticas de la gestión del rebaño de cerdas reproductoras yla producción de lechones en un contexto de cadena de suministro. / A noticeable change in the structure of the Spanish pork sector has been observedin recent years. Pig farms have become more and more specialized and the size oftheir operations has been increasing. Moreover, modern pig farms have tended tointegrate and coordinate their operations into Pork Supply Chain (PSC). Thus, theoverall aim of this thesis was to formulate a set of models to support sow herdmanagement and piglet production in a pork supply chain context, giving practicalanswers to relevant questions often asked by decision makers. Hence, the mainstrategic and tactical decisions regarding sow herds and piglet productionmanagement in a pork supply chain context were considered.Basically, four models under uncertainty were developed. The first one was a linearprogramming formulation of a semi-Markov model to design pig facilities. Itshowed that herd distribution based on physiological states and movementsbetween facilities were useful to calculate the room needs for each sow facility.The formulation considers recent EU regulations regarding animal welfare and theimpact on economic cost of housing facilities. Ongoing with animal welfare issues,a framework for the integration of clinical signs into a sow replacement model wasdeveloped. The sow replacement model used in the framework was a multi-levelhierarchical Markov process using Bayesian updating. The results showed how theincorporation of clinical signs in sow replacement models led to better cullingpolicies through more efficient detection of the weakest sows in the herd. The nexttwo models formulated under finite time horizon showed the herd distribution orstructure moving to the steady state. Temporary shocks in parameters or transitoryperturbations were better represented by finite time horizon models wherescenarios collected part of the uncertainty of the system. The use of LinearProgramming led to incorporate herd constraints more easily than in a MarkovDecision Process. Finally the two-stage stochastic programming model withrecourse showed to be a suitable tool to deal with the uncertainty of the systemthrough scenarios. Additional benefits for practical purpose were the scheduling of purchasing of gilts, planning piglet production and replacement policy, all under arolling time horizon scheme.Nowadays, with the current structure of the sector, it is reasonable to think aboutmodels capable of solving more accurately problems involving two or more stagesof the chain, and integrating them all together in some information system, in orderto improve the management of the PSC. Hence the models presented in this thesisare suitable tools to deal with main strategic and tactical decisions in sow herdsproducing piglets in a general PSC context.
79

Monitorització de fàrmacs mitjançant la cromatografía líquida micel·lar

Martinavarro Domínguez, Adrià 02 June 2006 (has links)
La cromatografia líquida micel·lar (MLC) ha estat aplicada amb èxit a la monitorització de fàrmacs. La MLC és un mode de la cromatografia líquida en fase inversa (RPLC) que conté micel·les, generalment de dodecil sulfat sòdic, que actuen com a modificadors de la fase mòbil, i un solvent orgànic o alcohol de cadena curta, que millora l'eficàcia i permet controlar la força eluent i la selectivitat de la fase mòbil. Les fases mòbils micel·lars, en comparació amb les aquó-orgàniques, tenen l'avantatge de permetre l'injecció directa de mostres biològiques (sèrum, orina, saliva, suor, etc.), i a més són més ecològiques, barates i estables. L'objectiu fonamental de la monitorització dels fàrmacs consisteix en millorar l'assistència terapèutica del pacient, tant en patologies agudes com en les cròniques, i això es du a terme mitjançant l'ajust de la dosi del fàrmac en funció de les concentracions plàsmiques, de manera que puga combinar la màxima eficiència del fàrmac i el mínim risc de toxicitat. També la monitorització és útil en la determinació de paràmetres químics i farmacològics, tals com el temps de vida mitja i d'altres. Els grups de substàncies amb els que s'han dut aquests tipus d'estudis han estat el dels antiarrítmics, antiepilèptics, antidepressius tricíclics, anàlgèsics, broncodilatadors i drogues d'abús, que inclouen a les amfetamines, barbiturats, benzodiazepines i opiacis.
80

Técnicas de submuestreo, Toma de decisiones y Análisis de diversidad en aprendisaje supervisado con Sistemas Múltiples de Clasificación

Valdovinos Rosas, Rosa María 23 June 2006 (has links)
En la presente Tesis Doctoral, se analiza fundamentalmente la aplicabilidad de los Sistemas de Múltiple Clasificación (SMC) en el marco de la regla del vecino más cercano. Una primera línea fundamental de investigación se centra en los algoritmos de preprocesado, con el objetivo de resolver diferentes problemas relacionados con la calidad de la muestra de entrenamiento: presencia de patrones redundantes, atípicos o ruidosos, bases de datos con un tamaño excesivo y desbalance entre las distribuciones de las clases. Otro aspecto de gran relevancia hace referencia a la efectividad de los componentes individuales del SMC dentro del método de votación, para lo cual se proponen nuevas técnicas de ponderación dinámica y estática de las decisiones individuales. El tercer punto central se refiere al análisis de diversidad de los clasificadores, utilizando para ello diversas medidas existentes en la literatura afín. Otras cuestiones ampliamente analizadas a lo largo de esta tesis son: las técnicas de muestreo (bagging, boosting, arcing y selección secuencial aleatoria), el tamaño del SMC y, por último, la viabilidad de utilizar dos modelos de redes neuronales artificiales (perceptrón multicapa y red modular).

Page generated in 0.0194 seconds