• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Enriching unstructured media content about events to enable semi-automated summaries, compilations, and improved search by leveraging social networks

Steiner, Thomas 20 May 2014 (has links)
(i) Mobile devices and social networks are omnipresent Mobile devices such as smartphones, tablets, or digital cameras together with social networks enable people to create, share, and consume enormous amounts of media items like videos or photos both on the road or at home. Such mobile devices "by pure definition" accompany their owners almost wherever they may go. In consequence, mobile devices are omnipresent at all sorts of events to capture noteworthy moments. Exemplary events can be keynote speeches at conferences, music concerts in stadiums, or even natural catastrophes like earthquakes that affect whole areas or countries. At such events" given a stable network connection" part of the event-related media items are published on social networks both as the event happens or afterwards, once a stable network connection has been established again. (ii) Finding representative media items for an event is hard Common media item search operations, for example, searching for the official video clip for a certain hit record on an online video platform can in the simplest case be achieved based on potentially shallow human-generated metadata or based on more profound content analysis techniques like optical character recognition, automatic speech recognition, or acoustic fingerprinting. More advanced scenarios, however, like retrieving all (or just the most representative) media items that were created at a given event with the objective of creating event summaries or media item compilations covering the event in question are hard, if not impossible, to fulfill at large scale. The main research question of this thesis can be formulated as follows. (iii) Research question "Can user-customizable media galleries that summarize given events be created solely based on textual and multimedia data from social networks?" (iv) Contributions In the context of this thesis, we have developed and evaluated a novel interactive application and related methods for media item enrichment, leveraging social networks, utilizing the Web of Data, techniques known from Content-based Image Retrieval (CBIR) and Content-based Video Retrieval (CBVR), and fine-grained media item addressing schemes like Media Fragments URIs to provide a scalable and near realtime solution to realize the abovementioned scenario of event summarization and media item compilation. (v) Methodology For any event with given event title(s), (potentially vague) event location(s), and (arbitrarily fine-grained) event date(s), our approach can be divided in the following six steps. 1) Via the textual search APIs (Application Programming Interfaces) of different social networks, we retrieve a list of potentially event-relevant microposts that either contain media items directly, or that provide links to media items on external media item hosting platforms. 2) Using third-party Natural Language Processing (NLP) tools, we recognize and disambiguate named entities in microposts to predetermine their relevance. 3) We extract the binary media item data from social networks or media item hosting platforms and relate it to the originating microposts. 4) Using CBIR and CBVR techniques, we first deduplicate exact-duplicate and near-duplicate media items and then cluster similar media items. 5) We rank the deduplicated and clustered list of media items and their related microposts according to well-defined ranking criteria. 6) In order to generate interactive and user-customizable media galleries that visually and audially summarize the event in question, we compile the top-n ranked media items and microposts in aesthetically pleasing and functional ways.
332

Approximation of phase-field models with meshfree methods: exploring biomembrane dynamics

Peco Regales, Christian 28 October 2014 (has links)
Las biomembranas constituyen la estructura de separación fundamental en las celulas animales, y son importantes en el diseño de sistemas bioinspirados. Su simulación presenta desafíos, especialmente cuando ésta implica dinámica y grandes cambios de forma o se estudian sistemas micrométricos, impidiendo el uso de modelos atomísticos y de grano grueso. El objetivo principal de esta tesis es el desarrollo de un marco computacional para entender la dinámica de biomembranas inmersas en fluido viscoso usando modelos de campo de fase. Los modelos de campo de fase introducen un campo escalar contínuo que define una interfase difusa, cuya física está codificada en las ecuaciones en derivadas parciales que la gobiernan. Estos modelos son capaces de soportar cambios dramáticos de forma y topología, y facilitan el acoplamiento de distintos fenómenos físicos. No obstante, presentan desafíos numéricos significativos, como el alto orden de las ecuaciones, la resolución de frentes móviles y abruptos, o una eficiente integración en el tiempo. En esta disertación abordamos estos puntos mediante la combinación de una discretización espacial con métodos sin malla usando las funciones base locales de máxima entropía, y una formulación variacional Lagrangiana para acoplamiento elástico-hidrodinámico. La suavidad del método sin malla genera una aproximación precisa del campo de fase y puede lidiar fácilmente con adaptatividad local, la aproximación Lagrangiana extiende de manera natural esta adaptividad a la dinámica, y la formulación variacional permite una integración variacional temporal no linealmente estable y robusta. La implementación numérica de estos métodos en un entorno de computación de alto rendimiento ha motivado el desarrollo de un nuevo código computacional. Este código integra el estado del arte de las librerías en paralelo e incorpora importantes contribuciones técnicas para solventar cuellos de botella que aparecen con el uso de métodos sin malla en computación a gran escala. El código resultante es flexible y ha sido aplicado a otros problemas científicos en varias colaboraciones que incluyen flexoelectricidad, conformado metálico, fluidos viscosos o fractura en materiales con energía de superficie altamente anisotrópica. / Biomembranes are the fundamental separation structure in animal cells, and are also used in engineered bioinspired systems. Their simulation is challenging, particularly when large shape changes and dynamics are involved, or micrometer systems are considered, ruling out atomistic or coarse-grained molecular modeling. The main goal of this thesis is to develop a computational framework to understand the dynamics of biomembranes embedded in a viscous fluid using phase-field models. Phase-field models introduce a scalar continuous field to define a diffuse moving interface, whose physics is encoded in partial differential equations governing it. These models can deal with dramatic shape and topological transformations and are amenable to multiphysics coupling. However, they present significant numerical challenges, such as the high-order character of the equations, the resolution of sharp and moving fronts, or the efficient time-integration. We address all these issues through a combination of meshfree spacial discretization using local maximum-entropy basis functions, and a Lagrangian variational formulation of the coupled elasticity-hydrodynamics. The smooth meshfree approach provides accurate approximations of the phase-field and can easily deal with local adaptivity, the Lagrangian approach naturally extend adaptivity to dynamics, and the variational formulation enables nonlinearly-stable robust variational time integration. The numerical implementation of these methods in a high-performance computing framework has motivated the development of a new computer code, which integrates state-of-the-art parallel libraries and incorporates important technical contributions to overcome bottlenecks that arise in meshfree methods for large-scale problems. The resulting code is flexible and has been applied to other scientific problems in a number of collaborations dealing with flexoelectricity, metal forming, creeping flows, or fracture in materials with strongly anisotropic surface energy.
333

Time-varying networks approach to social dynamics : from individual to collective behavior

Starnini, Michele 24 October 2014 (has links)
The data revolution experienced by social science has revealed complex patterns of interactions in human dynamics, such as the heterogeneity and burstiness of social contacts. The recently uncovered temporal dimension of social interactions calls for a renewed effort in analysis and modeling of empirical time-varying networks. This thesis contributes to pursue this program, through a twofold track: The modeling of dynamical social systems and the study of the impact of temporally evolving substrates on dynamical processes running on top of them. Firstly, we introduce some basic concepts and definition of time-varying networks formalism, and we present and analyze some empirical data of face-to-face interactions, discussing their main statistical properties, such as the bursty dynamics of social interactions. The main body of the exposition is then split into two parts. In the first part we focus on the modeling of social dynamics, with a twofold aim: reproduction of empirical data properties and analytic treatment of the models considered. We present and discuss the behavior of a simple model able to replicate the main statistical properties of empirical face-to-face interactions, at different levels of aggregation, such as individual, group and collective scales. The model considers individuals involved in a social gathering as performing a random walk in space, and it is based on the concept of social "attractiveness": socially attractive people (due to their status or role in the gathering) are more likely to make people stop around them, so they start to interact. We also devote attention to the analytic study of the activitydriven model, a model aimed to capture the relation between the dynamics of time-varying networks and the topological properties of their corresponding aggregated social networks. Through a mapping to the hidden variable model, we obtained analytic expressions for both topological properties of the time-integrated networks and connectivity properties of the evolving network, as a function of the integration time and the form of the activity potential. In the second part of the thesis we study the behavior of diffusive processes taking place on temporal networks, constituted by empirical face-to-face interactions data.We first consider random walks, and thanks to different randomization strategies we introduced, we are able to single out the crucial role of temporal correlations in slowing down the random walk exploration. Then we address spreading dynamics, focusing on the case of a simple SI model taking place on temporal networks, complemented by the study of the impact of different immunization strategies on the infection outbreak. We tackle in particular the effect of the length of the temporal window used to gather information in order to design the immunization strategy, finding that a limited amount of information of the contact patterns is sufficient to identify the individuals to immunize so as to maximize the effect of the vaccination protocol. Our work opens interesting perspectives for further research, in particular regarding the possibility to extend the time-varying networks approach to multiplex systems, composed of several layers of interrelated networks, in which the same individuals interact between them on different layers. Empirical analysis of multiplex networks is still in its infancy, indeed, while the data mining of large, social, multi-layered systems is mature to be exploited, calling for an effort in analysis and modeling. Our understanding of the impact of the temporal dimension of networked structures on the behavior of dynamical processes running on top of them can be applied to more complex multi-layered systems, with particular attention to the effect of temporal correlation between the layers in the diffusion dynamics. / La revolució de dades en ciències socials ha revelat els complexos patrons de les interaccions en la dinàmica humana, com ara l'heterogeneïtat i la burstiness dels contactes socials. La dimensió temporal recentment descoberta en les interaccions socials demana un esforç renovat en l'anàlisi i la modelització de xarxes empíriques de variables en el temps. Aquesta tesi contribueix a aquest programa, a través d'un doble recorregut: la modelització dels sistemes socials dinàmics i l'estudi de l'impacte de substrats temporalment variables en els processos dinàmics que es desenvolupen sobre ells. En primer lloc, hem introduït els conceptes bàsics i definicions del formalisme de les xarxes de variables en el temps, i presentem i analitzem algunes dades empíriques de les interaccions humanes de proximitat, discutint les seves principals propietats estadístiques. El cos principal de l'exposició es divideix llavors en dues parts. A la primera part ens centrem en els models de dinàmica social, amb un doble objectiu: la reproducció de les propietats de dades empíriques i el tractament analític dels models considerats. Hem presentat i discutit el comportament d'un model simple capaç de replicar les principals propietats estadístiques de les interaccions empíriques cara a cara, a diferents nivells d'agregació: individuals, grupals i d'escala col·lectiva. El model considera els individus que participen en un context social com si realitzaran una caminada a l'atzar en l'espai, i es basa en el concepte de "atractivitat social": persones socialment atractives tenen més probabilitat de que la gent que els envolta interactuï amb ells. Ens hem ocupat també de l'estudi analític del model "activity driven", destinat a capturar la relació entre la dinàmica de les xarxes variables en el temps i les propietats de les seves corresponents xarxes socials agregats. A través d'un mapeig amb el formalisme de variables ocultes, hem obtingut expressions analítiques per a les propietats topològiques de les xarxes integrades en el temps i les propietats de connectivitat de la xarxa en evolució, en funció del temps d'integració i de la forma del potencial d'activitat. A la segona part de la tesi hem estudiat el comportament dels processos difusius sobre xarxes temporals constituïdes per les dades empíriques de interaccions humanes. Primer considerem el procés de "random walk", o camí aleatori, i gràcies a les diferents estratègies de randomització que hem introduït, podem destacar el paper crucial de la correlacions temporals en alentir l'exploració del camí aleatori. Després hem dirigit la nostra atenció a la difusió d'epidèmies, centrant-nos en el cas d'un simple model SI que es desenvolupa a les xarxes temporals, complementat amb l'estudi de l'impacte de diferents estratègies d'immunització sobre la difusió de la infecció. Abordem, en particular, l'efecte de la longitud de la finestra temporal utilitzada per reunir informació per tal de dissenyar l'estratègia d'immunització, sobre l'eficàcia de la mateixa vacunació, descobrint que una quantitat limitada d'informació és suficient per maximitzar l'efecte del protocol de vacunació. El nostre treball obre interessants perspectives per a futures investigacions, en particular pel que fa a la possibilitat d'ampliar el formalisme de xarxes de temps variable a sistemes múltiplex, compostos de diverses capes de xarxes interrelacionades, en la qual els mateixos individus interactuen entre ells en diferents capes. L'anàlisi empírica de les xarxes múltiplex és encara en la seva infantesa, de fet, mentre que la mineria de dades de grans sistemes socials, de diverses capes, és madur per ser explotat, demanant un esforç en l'anàlisi i modelització. La nostra comprensió de l'impacte de la dimensió temporal de les xarxes sobre els processos dinàmics que es desenvolupen sobre ells es pot aplicar a sistemes més complexos de múltiples capes, estudiant l'efecte de la correlació temporal entre les capes en la dinàmica de difusió.
334

Enhanced perception in volume visualization

Díaz Iriberri, José 26 April 2013 (has links)
Due to the nature of scientic data sets, the generation of convenient visualizations may be a difficult task, but crucial to correctly convey the relevant information of the data. When working with complex volume models, such as the anatomical ones, it is important to provide accurate representations, since a misinterpretation can lead to serious mistakes while diagnosing a disease or planning surgery. In these cases, enhancing the perception of the features of interest usually helps to properly understand the data. Throughout years, researchers have focused on different methods to improve the visualization of volume data sets. For instance, the definition of good transfer functions is a key issue in Volume Visualization, since transfer functions determine how materials are classified. Other approaches are based on simulating realistic illumination models to enhance the spatial perception, or using illustrative effects to provide the level of abstraction needed to correctly interpret the data. This thesis contributes with new approaches to enhance the visual and spatial perception in Volume Visualization. Thanks to the new computing capabilities of modern graphics hardware, the proposed algorithms are capable of modifying the illumination model and simulating illustrative motifs in real time. In order to enhance local details, which are useful to better perceive the shape and the surfaces of the volume, our first contribution is an algorithm that employs a common sharpening operator to modify the lighting applied. As a result, the overall contrast of the visualization is enhanced by brightening the salient features and darkening the deeper regions of the volume model. The enhancement of depth perception in Direct Volume Rendering is also covered in the thesis. To do this, we propose two algorithms to simulate ambient occlusion: a screen-space technique based on using depth information to estimate the amount of light occluded, and a view-independent method that uses the density values of the data set to estimate the occlusion. Additionally, depth perception is also enhanced by adding halos around the structures of interest. Maximum Intensity Projection images provide a good understanding of the high intensity features of the data, but lack any contextual information. In order to enhance the depth perception in such a case, we present a novel technique based on changing how intensity is accumulated. Furthermore, the perception of the spatial arrangement of the displayed structures is also enhanced by adding certain colour cues. The last contribution is a new manipulation tool designed for adding contextual information when cutting the volume. Based on traditional illustrative effects, this method allows the user to directly extrude structures from the cross-section of the cut. As a result, the clipped structures are displayed at different heights, preserving the information needed to correctly perceive them. / Debido a la naturaleza de los datos científicos, visualizarlos correctamente puede ser una tarea complicada, pero crucial para interpretarlos de forma adecuada. Cuando se trabaja con modelos de volumen complejos, como es el caso de los modelos anatómicos, es importante generar imágenes precisas, ya que una mala interpretación de las mismas puede producir errores graves en el diagnóstico de enfermedades o en la planificación de operaciones quirúrgicas. En estos casos, mejorar la percepción de las zonas de interés, facilita la comprensión de la información inherente a los datos. Durante décadas, los investigadores se han centrado en el desarrollo de técnicas para mejorar la visualización de datos volumétricos. Por ejemplo, los métodos que permiten definir buenas funciones de transferencia son clave, ya que éstas determinan cómo se clasifican los materiales. Otros ejemplos son las técnicas que simulan modelos de iluminación realista, que permiten percibir mejor la distribución espacial de los elementos del volumen, o bien los que imitan efectos ilustrativos, que proporcionan el nivel de abstracción necesario para interpretar correctamente los datos. El trabajo presentado en esta tesis se centra en mejorar la percepción de los elementos del volumen, ya sea modificando el modelo de iluminación aplicado en la visualización, o simulando efectos ilustrativos. Aprovechando la capacidad de cálculo de los nuevos procesadores gráficos, se describen un conjunto de algoritmos que permiten obtener los resultados en tiempo real. Para mejorar la percepción de detalles locales, proponemos modificar el modelo de iluminación utilizando una conocida herramienta de procesado de imágenes (unsharp masking). Iluminando aquellos detalles que sobresalen de las superficies y oscureciendo las zonas profundas, se mejora el contraste local de la imagen, con lo que se consigue realzar los detalles de superficie. También se presentan diferentes técnicas para mejorar la percepción de la profundidad en Direct Volume Rendering. Concretamente, se propone modificar la iluminación teniendo en cuenta la oclusión ambiente de dos maneras diferentes: la primera utiliza los valores de profundidad en espacio imagen para calcular el factor de oclusión del entorno de cada pixel, mientras que la segunda utiliza los valores de densidad del volumen para aproximar dicha oclusión en cada vóxel. Además de estas dos técnicas, también se propone mejorar la percepción espacial y de la profundidad de ciertas estructuras mediante la generación de halos. La técnica conocida como Maximum Intensity Projection (MIP) permite visualizar los elementos de mayor intensidad del volumen, pero no aporta ningún tipo de información contextual. Para mejorar la percepción de la profundidad, proponemos una nueva técnica basada en cambiar la forma en la que se acumula la intensidad en MIP. También se describe un esquema de color para mejorar la percepción espacial de los elementos visualizados. La última contribución de la tesis es una herramienta de manipulación directa de los datos, que permite preservar la información contextual cuando se realizan cortes en el modelo de volumen. Basada en técnicas ilustrativas tradicionales, esta técnica permite al usuario estirar las estructuras visibles en las secciones de los cortes. Como resultado, las estructuras de interés se visualizan a diferentes alturas sobre la sección, lo que permite al observador percibirlas correctamente.
335

Meta-alignment of biological sequences

Blanco García, Enrique 21 July 2006 (has links)
Les seqüències són una de les estructures de dades més versàtils que existeixen. De forma relativament senzilla, en una seqüència de símbols es pot emmagatzemar informació de qualsevol tipus. L'anàlisi sistemàtic de seqüències es un àrea molt rica de l'algorísmica amb numeroses aproximacions desenvolupades amb éxit. En concret, la comparació de seqüències mitjançant l'alineament d'aquestes és una de les eines més potents. Una de les aproximacions més populars i eficients per alinear dues seqüències es l'ús de la programació dinàmica. Malgrat la seva evident utilitat, un alineament de dues seqüències no és sempre la millor opció per a caracteritzar la seva funció. Moltes vegades, les seqüències codifiquen la informació en diferents nivells (meta-informació). És llavors quan la comparació directa entre dues seqüències no es capaç de revelar aquelles estructures d'ordre superior que podrien explicar la relació establerta entre aquestes seqüències.Amb aquest treball hem contribuït a millorar la forma en que dues seqüències poden ser comparades, desenvolupant una família d'algorismes d'alineament de la informació d'alt nivell codificada en seqüències biològiques (meta-alineaments). Inicialment, hem redissenyat un antic algorisme, basat en programació dinàmica, que és capaç d'alinear dues seqüències de meta-informació, procedint després a introduir-hi vàries millores per accelerar la seva velocitat. A continuació hem desenvolupat un algorisme de meta-aliniament capaç d'alinear un número múltiple de seqüències, combinant l'algorisme general amb un esquema de clustering jeràrquic. A més, hem estudiat les propietats dels meta-alineaments produïts, modificant l'algorisme per tal d'identificar alineaments amb una configuració no necessàriament col.lineal, el que permet llavors la detecció de permutacions en els resultats.La vida molecular és un exemple paradigmátic de la versatilitat de les seqüències. Les comparaciones entre genomes, ara que la seva seqüència està disponible, permeten identificar numerosos elements biològicament funcionals. La seqüència de nucleòtids de molts gens, per exemple, es troba acceptablement conservada entre diferents espècies. En canvi, les seqüències que regulen la activació dels propis gens són més curtes i variables. Així l'activació simultànea d'un conjunt de gens es pot explicar només a partir de la conservació de configuracions comunes d'elements reguladors d'alt nivell i no pas a partir de la simple conservació de les seves seqüències. Per tant, hem entrenat els nostres programes de meta-alineament en una sèrie de conjunts de regions reguladores recopilades per nosaltres mateixos de la literatura i desprès, hem provat la utilitat biològica de la nostra aproximació, caracteritzant automàticament de forma exitosa les regions activadores de gens humans conservats en altres espècies. / The sequences are very versatile data structures. In a straightforward manner, a sequence of symbols can store any type of information. Systematic analysis of sequences is a very rich area of algorithmics, with lots of successful applications. The comparison by sequence alignment is a very powerful analysis tool. Dynamic programming is one of the most popular and efficient approaches to align two sequences. However, despite their utility, alignments are not always the best option for characterizing the function of two sequences. Sequences often encode information in different levels of organization (meta-information). In these cases, direct sequence comparison is not able to unveil those higher-order structures that can actually explain the relationship between the sequences.We have contributed with the work presented here to improve the way in which two sequences can be compared, developing a new family of algorithms that align high level information encoded in biological sequences (meta-alignment). Initially, we have redesigned an existent algorithm, based in dynamic programming, to align two sequences of meta-information, introducing later several improvements for a better performance. Next, we have developed a multiple meta-alignment algorithm, by combining the general algorithm with the progressive schema. In addition, we have studied the properties of the resulting meta-alignments, modifying the algorithm to identify non-collinear or permuted configurations.Molecular life is a great example of the sequence versatility. Comparative genomics provide the identification of numerous biologically functional elements. The nucleotide sequence of many genes, for example, is relatively well conserved between different species. In contrast, the sequences that regulate the gene expression are shorter and weaker. Thus, the simultaneous activation of a set of genes only can be explained in terms of conservation between configurations of higher-order regulatory elements, that can not be detected at the sequence level. We, therefore, have trained our meta-alignment programs in several datasets of regulatory regions collected from the literature. Then, we have tested the accuracy of our approximation to successfully characterize the promoter regions of human genes and their orthologs in other species.
336

Trade-off among timeliness, messages and accuracy for large-Ssale information management

Brunner, René 18 November 2011 (has links)
The increasing amount of data and the number of nodes in large-scale environments require new techniques for information management. Examples of such environments are the decentralized infrastructures of Computational Grid and Computational Cloud applications. These large-scale applications need different kinds of aggregated information such as resource monitoring, resource discovery or economic information. The challenge of providing timely and accurate information in large scale environments arise from the distribution of the information. Reasons for delays in distributed information system are a long information transmission time due to the distribution, churn and failures. A problem of large applications such as peer-to-peer (P2P) systems is the increasing retrieval time of the information due to the decentralization of the data and the failure proneness. However, many applications need a timely information provision. Another problem is an increasing network consumption when the application scales to millions of users and data. Using approximation techniques allows reducing the retrieval time and the network consumption. However, the usage of approximation techniques decreases the accuracy of the results. Thus, the remaining problem is to offer a trade-off in order to solve the conflicting requirements of fast information retrieval, accurate results and low messaging cost. Our goal is to reach a self-adaptive decision mechanism to offer a trade-off among the retrieval time, the network consumption and the accuracy of the result. Self-adaption enables distributed software to modify its behavior based on changes in the operating environment. In large-scale information systems that use hierarchical data aggregation, we apply self-adaptation to control the approximation used for the information retrieval and reduces the network consumption and the retrieval time. The hypothesis of the thesis is that approximation techniquescan reduce the retrieval time and the network consumption while guaranteeing an accuracy of the results, while considering user’s defined priorities. First, this presented research addresses the problem of a trade-off among a timely information retrieval, accurate results and low messaging cost by proposing a summarization algorithm for resource discovery in P2P-content networks. After identifying how summarization can improve the discovery process, we propose an algorithm which uses a precision-recall metric to compare the accuracy and to offer a user-driven trade-off. Second, we propose an algorithm that applies a self-adaptive decision making on each node. The decision is about the pruning of the query and returning the result instead of continuing the query. The pruning reduces the retrieval time and the network consumption at the cost of a lower accuracy in contrast to continuing the query. The algorithm uses an analytic hierarchy process to assess the user’s priorities and to propose a trade-off in order to satisfy the accuracy requirements with a low message cost and a short delay. A quantitative analysis evaluates our presented algorithms with a simulator, which is fed with real data of a network topology and the nodes’ attributes. The usage of a simulator instead of the prototype allows the evaluation in a large scale of several thousands of nodes. The algorithm for content summarization is evaluated with half a million of resources and with different query types. The selfadaptive algorithm is evaluated with a simulator of several thousands of nodes that are created from real data. A qualitative analysis addresses the integration of the simulator’s components in existing market frameworks for Computational Grid and Cloud applications. The proposed content summarization algorithm reduces the information retrieval time from a logarithmic increase to a constant factor. Furthermore, the message size is reduced significantly by applying the summarization technique. For the user, a precision-recall metric allows defining the relation between the retrieval time and the accuracy. The self-adaptive algorithm reduces the number of messages needed from an exponential increase to a constant factor. At the same time, the retrieval time is reduced to a constant factor under an increasing number of nodes. Finally, the algorithm delivers the data with the required accuracy adjusting the depth of the query according to the network conditions. / La gestió de la informació exigeix noves tècniques que tractin amb la creixent quantitat de dades i nodes en entorns a gran escala. Alguns exemples d’aquests entorns són les infraestructures descentralitzades de Computacional Grid i Cloud. Les aplicacions a gran escala necessiten diferents classes d’informació agregada com monitorització de recursos i informació econòmica. El desafiament de proporcionar una provisió ràpida i acurada d’informació en ambients de grans escala sorgeix de la distribució de la informació. Una raó és que el sistema d’informació ha de tractar amb l’adaptabilitat i fracassos d’aquests ambients. Un problema amb aplicacions molt grans com en sistemes peer-to-peer (P2P) és el creixent temps de recuperació de l’informació a causa de la descentralització de les dades i la facilitat al fracàs. No obstant això, moltes aplicacions necessiten una provisió d’informació puntual. A més, alguns usuaris i aplicacions accepten inexactituds dels resultats si la informació es reparteix a temps. A més i més, el consum de xarxa creixent fa que sorgeixi un altre problema per l’escalabilitat del sistema. La utilització de tècniques d’aproximació permet reduir el temps de recuperació i el consum de xarxa. No obstant això, l’ús de tècniques d’aproximació disminueix la precisió dels resultats. Així, el problema restant és oferir un compromís per resoldre els requisits en conflicte d’extracció de la informació ràpida, resultats acurats i cost d’enviament baix. El nostre objectiu és obtenir un mecanisme de decisió completament autoadaptatiu per tal d’oferir el compromís entre temps de recuperació, consum de xarxa i precisió del resultat. Autoadaptacío permet al programari distribuït modificar el seu comportament en funció dels canvis a l’entorn d’operació. En sistemes d’informació de gran escala que utilitzen agregació de dades jeràrquica, l’auto-adaptació permet controlar l’aproximació utilitzada per a l’extracció de la informació i redueixen el consum de xarxa i el temps de recuperació. La hipòtesi principal d’aquesta tesi és que els tècniques d’aproximació permeten reduir el temps de recuperació i el consum de xarxa mentre es garanteix una precisió adequada definida per l’usari. La recerca que es presenta, introdueix un algoritme de sumarització de continguts per a la descoberta de recursos a xarxes de contingut P2P. Després d’identificar com sumarització pot millorar el procés de descoberta, proposem una mètrica que s’utilitza per comparar la precisió i oferir un compromís definit per l’usuari. Després, introduïm un algoritme nou que aplica l’auto-adaptació a un ordre per satisfer els requisits de precisió amb un cost de missatge baix i un retard curt. Basat en les prioritats d’usuari, l’algoritme troba automàticament un compromís. L’anàlisi quantitativa avalua els algoritmes presentats amb un simulador per permetre l’evacuació d’uns quants milers de nodes. El simulador s’alimenta amb dades d’una topologia de xarxa i uns atributs dels nodes reals. L’algoritme de sumarització de contingut s’avalua amb mig milió de recursos i amb diferents tipus de sol·licituds. L’anàlisi qualitativa avalua la integració del components del simulador en estructures de mercat existents per a aplicacions de Computacional Grid i Cloud. Així, la funcionalitat implementada del simulador (com el procés d’agregació i la query language) és comprovada per la integració de prototips. L’algoritme de sumarització de contingut proposat redueix el temps d’extracció de l’informació d’un augment logarítmic a un factor constant. A més, també permet que la mida del missatge es redueix significativament. Per a l’usuari, una precision-recall mètric permet definir la relació entre el nivell de precisió i el temps d’extracció de la informació. Alhora, el temps de recuperació es redueix a un factor constant sota un nombre creixent de nodes. Finalment, l’algoritme reparteix les dades amb la precisió exigida i ajusta la profunditat de la sol·licitud segons les condicions de xarxa. Els algoritmes introduïts són prometedors per ser utilitzats per l’agregació d’informació en nous sistemes de gestió de la informació de gran escala en el futur.
337

Management of Cloud systems applied to eHealth

Vilaplana Mayoral, Jordi 10 September 2015 (has links)
This thesis explores techniques, models and algorithms for an efficient management of Cloud systems and how to apply them to the healthcare sector in order to improve current treatments. It presents two Cloud-based eHealth applications to telemonitor and control smoke-quitting and hypertensive patients. Different Cloud-based models were obtained and used to develop a Cloudbased infrastructure where these applications are deployed. The results show that these applications improve current treatments and that can be scaled as computing requirements grow. Multiple Cloud architectures and models were analyzed and then implemented using different techniques and scenarios. The Smoking Patient Control (S-PC) tool was deployed and tested in a real environment, showing a 28.4% increase in long-term abstinence. The Hypertension Patient Control (H-PC) tool, was successfully designed and implemented, and the computing boundaries were measured / Aquesta tesi explora tèniques, models i algorismes per una gestió eficient en sistemes al Núvol i com aplicar-ho en el sector de la salut per tal de millorar els tractaments actuals. Presenta dues aplicacions de salut electrònica basades en el Núvol per telemonitoritzar i controlar pacients fumadors i hipertensos. S'ha obtingut diferents models basats en el Núvol i s'han utilitzat per a desenvolupar una infraestructura on desplegar aquestes aplicacions. Els resultats mostren que aquestes aplicacions milloren els tractaments actuals així com escalen a mesura que els requeriments computacionals augmenten. Múltiples arquitectures i models han estat analitzats i implementats utilitzant diferents tècniques i escenaris. L'aplicació Smoking Patient Control (S-PC) ha estat desplegada i provada en un entorn real, aconseguint un augment del 28,4% en l'absistinència a llarg termini de pacients fumadors. L'aplicació Hypertension Patient Control (H-PC) ha estat dissenyada i implementada amb èxit, i els seus límits computacionals han estat mesurats. / Esta tesis explora ténicas, modelos y algoritmos para una gestión eficiente de sistemas en la Nube y como aplicarlo en el sector de la salud con el fin de mejorar los tratamientos actuales. Presenta dos aplicaciones de salud electrónica basadas en la Nube para telemonitorizar y controlar pacientes fumadores e hipertensos. Se han obtenido diferentes modelos basados en la Nube y se han utilizado para desarrollar una infraestructura donde desplegar estas aplicaciones. Los resultados muestran que estas aplicaciones mejoran los tratamientos actuales así como escalan a medida que los requerimientos computacionales aumentan. Múltiples arquitecturas y modelos han sido analizados e implementados utilizando diferentes técnicas y escenarios. La aplicación Smoking Patient Control (S-PC) se ha desplegado y provado en un entorno real, consiguiendo un aumento del 28,4% en la abstinencia a largo plazo de pacientes fumadores. La aplicación Hypertension Patient Control (H-PC) ha sido diseñada e implementada con éxito, y sus límites computacionales han sido medidos.
338

Animation and Interaction of Responsive, Expressive, and Tangible 3D Virtual Characters

Fernández Baena, Adso 05 October 2015 (has links)
This thesis is framed within the field of 3D Character Animation. Virtual characters are used in many Human Computer Interaction applications such as video games and serious games. Within these virtual worlds they move and act in similar ways to humans controlled by users through some form of interface or by artificial intelligence. This work addresses the challenges of developing smoother movements and more natural behaviors driving motions in real-time, intuitively, and accurately. The interaction between virtual characters and intelligent objects will also be explored. With these subjects researched the work will contribute to creating more responsive, expressive, and tangible virtual characters. The navigation within virtual worlds uses locomotion such as walking, running, etc. To achieve maximum realism, actors' movements are captured and used to animate virtual characters. This is the philosophy of motion graphs: a structure that embeds movements where the continuous motion stream is generated from concatenating motion pieces. However, locomotion synthesis, using motion graphs, involves a tradeoff between the number of possible transitions between different kinds of locomotion, and the quality of these, meaning smooth transition between poses. To overcome this drawback, we propose the method of progressive transitions using Body Part Motion Graphs (BPMGs). This method deals with partial movements, and generates specific, synchronized transitions for each body part (group of joints) within a window of time. Therefore, the connectivity within the system is not linked to the similarity between global poses allowing us to find more and better quality transition points while increasing the speed of response and execution of these transitions in contrast to standard motion graphs method. Secondly, beyond getting faster transitions and smoother movements, virtual characters also interact with each other and with users by speaking. This interaction requires the creation of appropriate gestures according to the voice that they reproduced. Gestures are the nonverbal language that accompanies voiced language. The credibility of virtual characters when speaking is linked to the naturalness of their movements in sync with the voice in speech and intonation. Consequently, we analyzed the relationship between gestures, speech, and the performed gestures according to that speech. We defined intensity indicators for both gestures (GSI, Gesture Strength Indicator) and speech (PSI, Pitch Strength Indicator). We studied the relationship in time and intensity of these cues in order to establish synchronicity and intensity rules. Later we adapted the mentioned rules to select the appropriate gestures to the speech input (tagged text from speech signal) in the Gesture Motion Graph (GMG). The evaluation of resulting animations shows the importance of relating the intensity of speech and gestures to generate believable animations beyond time synchronization. Subsequently, we present a system that leads automatic generation of gestures and facial animation from a speech signal: BodySpeech. This system also includes animation improvements such as: increased use of data input, more flexible time synchronization, and new features like editing style of output animations. In addition, facial animation also takes into account speech intonation. Finally, we have moved virtual characters from virtual environments to the physical world in order to explore their interaction possibilities with real objects. To this end, we present AvatARs, virtual characters that have tangible representation and are integrated into reality through augmented reality apps on mobile devices. Users choose a physical object to manipulate in order to control the animation. They can select and configure the animation, which serves as a support for the virtual character represented. Then, we explored the interaction of AvatARs with intelligent physical objects like the Pleo social robot. Pleo is used to assist hospitalized children in therapy or simply for playing. Despite its benefits, there is a lack of emotional relationship and interaction between the children and Pleo which makes children lose interest eventually. This is why we have created a mixed reality scenario where Vleo (AvatAR as Pleo, virtual element) and Pleo (real element) interact naturally. This scenario has been tested and the results conclude that AvatARs enhances children's motivation to play with Pleo, opening a new horizon in the interaction between virtual characters and robots. / Aquesta tesi s'emmarca dins del món de l'animació de personatges virtuals tridimensionals. Els personatges virtuals s'utilitzen en moltes aplicacions d'interacció home màquina, com els videojocs o els serious games, on es mouen i actuen de forma similar als humans dins de mons virtuals, i on són controlats pels usuaris per mitjà d'alguna interfície, o d'altra manera per sistemes intel·ligents. Reptes com aconseguir moviments fluids i comportament natural, controlar en temps real el moviment de manera intuitiva i precisa, i inclús explorar la interacció dels personatges virtuals amb elements físics intel·ligents; són els que es treballen a continuació amb l'objectiu de contribuir en la generació de personatges virtuals responsius, expressius i tangibles. La navegació dins dels mons virtuals fa ús de locomocions com caminar, córrer, etc. Per tal d'aconseguir el màxim de realisme, es capturen i reutilitzen moviments d'actors per animar els personatges virtuals. Així funcionen els motion graphs, una estructura que encapsula moviments i per mitjà de cerques dins d'aquesta, els concatena creant un flux continu. La síntesi de locomocions usant els motion graphs comporta un compromís entre el número de transicions entre les diferents locomocions, i la qualitat d'aquestes (similitud entre les postures a connectar). Per superar aquest inconvenient, proposem el mètode transicions progressives usant Body Part Motion Graphs (BPMGs). Aquest mètode tracta els moviments de manera parcial, i genera transicions específiques i sincronitzades per cada part del cos (grup d'articulacions) dins d'una finestra temporal. Per tant, la conectivitat del sistema no està lligada a la similitud de postures globals, permetent trobar més punts de transició i de més qualitat, i sobretot incrementant la rapidesa en resposta i execució de les transicions respecte als motion graphs estàndards. En segon lloc, més enllà d'aconseguir transicions ràpides i moviments fluids, els personatges virtuals també interaccionen entre ells i amb els usuaris parlant, creant la necessitat de generar moviments apropiats a la veu que reprodueixen. Els gestos formen part del llenguatge no verbal que acostuma a acompanyar a la veu. La credibilitat dels personatges virtuals parlants està lligada a la naturalitat dels seus moviments i a la concordança que aquests tenen amb la veu, sobretot amb l'entonació d'aquesta. Així doncs, hem realitzat l'anàlisi de la relació entre els gestos i la veu, i la conseqüent generació de gestos d'acord a la veu. S'han definit indicadors d'intensitat tant per gestos (GSI, Gesture Strength Indicator) com per la veu (PSI, Pitch Strength Indicator), i s'ha estudiat la relació entre la temporalitat i la intensitat de les dues senyals per establir unes normes de sincronia temporal i d'intensitat. Més endavant es presenta el Gesture Motion Graph (GMG), que selecciona gestos adients a la veu d'entrada (text anotat a partir de la senyal de veu) i les regles esmentades. L'avaluació de les animaciones resultants demostra la importància de relacionar la intensitat per generar animacions cre\"{ibles, més enllà de la sincronització temporal. Posteriorment, presentem un sistema de generació automàtica de gestos i animació facial a partir d'una senyal de veu: BodySpeech. Aquest sistema també inclou millores en l'animació, major reaprofitament de les dades d'entrada i sincronització més flexible, i noves funcionalitats com l'edició de l'estil les animacions de sortida. A més, l'animació facial també té en compte l'entonació de la veu. Finalment, s'han traslladat els personatges virtuals dels entorns virtuals al món físic per tal d'explorar les possibilitats d'interacció amb objectes reals. Per aquest fi, presentem els AvatARs, personatges virtuals que tenen representació tangible i que es visualitzen integrats en la realitat a través d'un dispositiu mòbil gràcies a la realitat augmentada. El control de l'animació es duu a terme per mitjà d'un objecte físic que l'usuari manipula, seleccionant i parametritzant les animacions, i que al mateix temps serveix com a suport per a la representació del personatge virtual. Posteriorment, s'ha explorat la interacció dels AvatARs amb objectes físics intel·ligents com el robot social Pleo. El Pleo s'utilitza per a assistir a nens hospitalitzats en teràpia o simplement per jugar. Tot i els seus beneficis, hi ha una manca de relació emocional i interacció entre els nens i el Pleo que amb el temps fa que els nens perdin l'interès en ell. Així doncs, hem creat un escenari d'interacció mixt on el Vleo (un AvatAR en forma de Pleo; element virtual) i el Pleo (element real) interactuen de manera natural. Aquest escenari s'ha testejat i els resultats conclouen que els AvatARs milloren la motivació per jugar amb el Pleo, obrint un nou horitzó en la interacció dels personatges virtuals amb robots. / Esta tesis se enmarca dentro del mundo de la animación de personajes virtuales tridimensionales. Los personajes virtuales se utilizan en muchas aplicaciones de interacción hombre máquina, como los videojuegos y los serious games, donde dentro de mundo virtuales se mueven y actúan de manera similar a los humanos, y son controlados por usuarios por mediante de alguna interfaz, o de otro modo, por sistemas inteligentes. Retos como conseguir movimientos fluidos y comportamiento natural, controlar en tiempo real el movimiento de manera intuitiva y precisa, y incluso explorar la interacción de los personajes virtuales con elementos físicos inteligentes; son los que se trabajan a continuación con el objetivo de contribuir en la generación de personajes virtuales responsivos, expresivos y tangibles. La navegación dentro de los mundos virtuales hace uso de locomociones como andar, correr, etc. Para conseguir el máximo realismo, se capturan y reutilizan movimientos de actores para animar los personajes virtuales. Así funcionan los motion graphs, una estructura que encapsula movimientos y que por mediante búsquedas en ella, los concatena creando un flujo contínuo. La síntesi de locomociones usando los motion graphs comporta un compromiso entre el número de transiciones entre las distintas locomociones, y la calidad de estas (similitud entre las posturas a conectar). Para superar este inconveniente, proponemos el método transiciones progresivas usando Body Part Motion Graphs (BPMGs). Este método trata los movimientos de manera parcial, y genera transiciones específicas y sincronizadas para cada parte del cuerpo (grupo de articulaciones) dentro de una ventana temporal. Por lo tanto, la conectividad del sistema no está vinculada a la similitud de posturas globales, permitiendo encontrar más puntos de transición y de más calidad, incrementando la rapidez en respuesta y ejecución de las transiciones respeto a los motion graphs estándards. En segundo lugar, más allá de conseguir transiciones rápidas y movimientos fluídos, los personajes virtuales también interaccionan entre ellos y con los usuarios hablando, creando la necesidad de generar movimientos apropiados a la voz que reproducen. Los gestos forman parte del lenguaje no verbal que acostumbra a acompañar a la voz. La credibilidad de los personajes virtuales parlantes está vinculada a la naturalidad de sus movimientos y a la concordancia que estos tienen con la voz, sobretodo con la entonación de esta. Así pues, hemos realizado el análisis de la relación entre los gestos y la voz, y la consecuente generación de gestos de acuerdo a la voz. Se han definido indicadores de intensidad tanto para gestos (GSI, Gesture Strength Indicator) como para la voz (PSI, Pitch Strength Indicator), y se ha estudiado la relación temporal y de intensidad para establecer unas reglas de sincronía temporal y de intensidad. Más adelante se presenta el Gesture Motion Graph (GMG), que selecciona gestos adientes a la voz de entrada (texto etiquetado a partir de la señal de voz) y las normas mencionadas. La evaluación de las animaciones resultantes demuestra la importancia de relacionar la intensidad para generar animaciones creíbles, más allá de la sincronización temporal. Posteriormente, presentamos un sistema de generación automática de gestos y animación facial a partir de una señal de voz: BodySpeech. Este sistema también incluye mejoras en la animación, como un mayor aprovechamiento de los datos de entrada y una sincronización más flexible, y nuevas funcionalidades como la edición del estilo de las animaciones de salida. Además, la animación facial también tiene en cuenta la entonación de la voz. Finalmente, se han trasladado los personajes virtuales de los entornos virtuales al mundo físico para explorar las posibilidades de interacción con objetos reales. Para este fin, presentamos los AvatARs, personajes virtuales que tienen representación tangible y que se visualizan integrados en la realidad a través de un dispositivo móvil gracias a la realidad aumentada. El control de la animación se lleva a cabo mediante un objeto físico que el usuario manipula, seleccionando y configurando las animaciones, y que a su vez sirve como soporte para la representación del personaje. Posteriormente, se ha explorado la interacción de los AvatARs con objetos físicos inteligentes como el robot Pleo. Pleo se utiliza para asistir a niños en terapia o simplemente para jugar. Todo y sus beneficios, hay una falta de relación emocional y interacción entre los niños y Pleo que con el tiempo hace que los niños pierdan el interés. Así pues, hemos creado un escenario de interacción mixto donde Vleo (AvatAR en forma de Pleo; virtual) y Pleo (real) interactúan de manera natural. Este escenario se ha testeado y los resultados concluyen que los AvatARs mejoran la motivación para jugar con Pleo, abriendo un nuevo horizonte en la interacción de los personajes virtuales con robots.
339

Monitorización del progreso en el aprendizaje. Marco teórico y evidencia empírica en la aplicación de teorías de evaluación y monitoreo de procesos en la creación de herramientas para monitorear el progreso en el aprendizaje en escenarios de e-learning.

Sampieri Bulbarela, Mónica 28 March 2008 (has links)
La tesis "Monitorización del progreso en el aprendizaje" se desarrolla en el contexto de la educación y las tecnologías de la información y la comunicación. Si podemos aprovechar los beneficios que ofrecen las TIC para almacenar y gestionar información, es factible implementar modelos para monitorear y supervisar los procesos que tienen cabida en las áreas de la educación.El objetivo de la tesis, se centra en identificar y analizar los componentes relevantes y necesarios para el diseño, desarrollo e implementación de sistemas de supervisión y captura del progreso que tiene un estudiante durante su proceso de aprendizaje en diversos escenarios.La investigación se desarrolla en dos frentes: uno teórico-tecnológico y otro empírico. El primer frente intenta explorar todos los conceptos relacionados a la evaluación y a los sistemas de monitoreo para identificar los componentes conceptuales que fundamentan el diseño de herramientas de monitoreo del progreso. De la misma manera, es necesario estudiar las propuestas tecnológicas que soportan la implementación de herramientas en el ámbito del elearning.El segundo frente se concentra en diseñar, desarrollar e implementar herramientas que intentan registrar, almacenar, interpretar y representar aspectos del progreso que tiene un estudiante; realizar estudios para explorar el efecto de las herramientas en el proceso de aprendizaje; y sacar conclusiones sobre las pautas relevantes para la definición de un modelo de Monitoreo del Progreso en el Aprendizaje.La estrategia de investigación que se ha utilizado para llevar a cabo los estudios de campo es el Estudio de Caso. Se diseñaron estudios de caso para explorar el efecto que tienen las herramientas diseñadas sobre el proceso de aprendizaje y durante actividades asíncronas y actividades en tiempo real.El modelo propuesto como resultado de esta investigación intenta definir un sistema de monitoreo del progreso en el aprendizaje desde una perspectiva general de los sistemas de monitoreo. El modelo podría ser implementado en distintos entornos de aprendizaje, adaptarse a distintas modalidades de formación, con distintos modelos pedagógicos, a través de diversas plataformas de gestión del aprendizaje y empleando modalidades de comunicación en tiempo real y asíncronas. / The thesis "Monitoring learning progress" takes place in the context of education and information technology and communication. If we can take advantage of the benefits offered by ICT to store and manage information, it is feasible to implement models to monitor and supervise the processes taking place in the areas of education.The aim of this thesis, is focused on identifying and analyzing the relevant and necessary components for the design, development and implementation of monitoring and capture the student's progress during the learning process in various scenarios.The investigation takes place on two fronts: a theoretical-technological and an empirical one. The first front tries to explore all the concepts related to the assessment and monitoring systems to identify components that underlie the conceptual design of progress monitoring tools. In the same way, it is necessary to study the technological proposals that support the implementation of tools in the ambit of e-learning. The second front focuses on design, develop and implement tools that try to record, store, interpret and represent aspects of the student's progress; on studies to explore the effect of the tools in the learning process; and draw conclusions about relevant patterns to define a Learning Progress Monitoring Model.The research strategy that has been used to carry out the field studies is the Case Study. Case studies were designed to explore the impact of tools on the learning process during asynchronous and real time activities. The model, proposed as a result of this research, attempts to define a system of learning progress monitoring from a general overview of the monitoring systems. The model could be implemented in different learning environments, adapted to different forms of training, with different models of education, through a variety of learning management platforms and using real time and asynchronous communication modalities.
340

Modelos probabilísticos para utilización en sistemas expertos

Álvarez Saiz, Elena E. 09 February 1990 (has links)
Uno de los problemas más candentes en sistemas expertos es la discusión existente entre los defensores de los modelos probabilísticos y sus detractores. Los métodos alternativos surgidos (t. evidencia, lógica difusa, factores de certeza) son inadecuados para reproducir muchas situaciones reales. Entre las causas de crítica de los métodos basados en probabilidad destaca la insuficiencia del modelo de independencia y la imposibilidad de reflejar la dependencia total, debida al excesivo número de parámetros. Como alternativa se propone el modelo llamado de dependencia de síntomas relevantes. Este modelo no es solo teórico sino que puede implementarse tal como demuestra la concha RSPS implementada como parte de esta tesis.Se analiza también los diferentes sistemas de representación de reglas y los algoritmos que permiten los cambios de una representación a otra. Además se estudian algoritmos para compilar reglas mediante la agrupación de todas las que concluyen un objeto reduciendo con ello enormemente el tiempo de respuesta de los motores de inferencia.Mediante la compilación de reglas se puede detectar, además, cuando un conjunto de hechos contradicen un sistema de reglas.Con el fin de mantener la coherencia en la base de conocimiento de los sistemas probabilísticos se dan dos soluciones para asistir al experto a dar su información.Una mediante aportación ordenada de probabilidades y otra basada en programación lineal.Por otra parte, se describen algunas técnicas estadísticas que permiten desarrollar bases de conocimiento, motores de inferencia, etc. en sistemas expertos.En relación con el aprendizaje en sistemas expertos se propone un método basado en el principio de máxima verosimilitud para el modelo de redes causales propuesto por Lauritzen y Spiegelhalter. Por otra parte, la teoría de aprendizaje de conceptos de tipo determinista es generalizable al caso de conceptos de tipo probabilístico. / One of the most current problems with Expert Systems is the continuing argument between the defendants of probabilistic models and those against it. The alternative suggested (certainty factors, fuzzy logic, theory of evidence,. ) are inadequate at reproducing many real situations. Probabilistic models have been criticized either for the high number of parameters involved or the difficulties in their estimation from data. In fact, there is general agreement that the general dependence model is not practical for most real cases. Other sources of criticism come from the independence models, which are considered too simple for reproducing some real problems. As an alternative the model known as relevant symptoms dependence model is proposed. This model is not only theoretical but can be implemented as well, as shows the RSPS shell integrated in part of this thesis.Different systems of the representation of rules and the algorithms that allow changes from one representation to another are also analysed. Moreover some technical statistics that allow knowledge bases and inference engine to be created in expert systems are described.In relation to the learning of expert systems a method based on the maximum likelihood method for causal networks by Lauritzen and Spiegelhalter is proposed.

Page generated in 0.0795 seconds