91 |
Achieving non-intrusive interoperability between models for involving users in modeling tasksPérez Pérez, María Francisca 02 December 2015 (has links)
[EN] Model-Driven Development (MDD) promotes models as the cornerstone in the software development process, thereby displacing source code as the development process's main feature. Although this model-centric schema claims advantages over traditional software development (e.g., the code could be automatically generated from the models), it does not have the level of adoption that has been expected.
The literature review reveals a broad agreement in the fact that end-users may develop and adapt systems themselves but the complexity in modeling standards and the lack of modeling skills prevents their active involvement in modeling tasks of existing MDD processes. To overcome this, end-users should be provided with different modeling languages that use concepts, which fit their particular skills, context and needs.
This challenge is the main goal of this thesis, which is addressed by combining the End-user Development and the Model-Driven Development fields. This work starts with the involvement of end-users into the modeling tasks using a tool-supported visual modeling language that allows end-users to select and customize system features of pervasive systems using closer concepts for them. Afterwards, this thesis shows the necessity of enriching existing MDD processes for supporting the development of a new generation of software systems (e.g., smart health) that require expertise in a variety of domains. Consequently, different types of users (e.g., scientists, engineers and end-users) must actively participate in the description of model fragments that depend on their expertise using a different modeling language. Thus, users are able to collaborate to obtain a unified system description. At this point, it becomes necessary to provide mechanisms that transforms models fragments from one modeling language to another, delimits which model fragments are described by a different user, and integrates those model fragments.
To provide this, the presented approach encompasses variability management in a novel way to enable collaborative modeling by supporting both the selection of model fragments of the system that may be described using a different modeling language, and the integration of those model fragments once they are described. Furthermore, interoperability mechanisms bridge two different modeling languages in a non-intrusive way with the structure of models by transforming the description of gaps. Thus, our proposal could enrich models of existing MDD processes with model fragments that have been described using a different modeling language, which could make users feel confident to adopt models for describing domain-specific content and could help to adopt MDD processes.
The proposal has been validated in three case studies from different levels of complexity and domains: smart home systems, web information systems, and biomechanical protocols. The results have proven the applicability and feasibility of our approach to actively involve different types of users (end- users with software professionals, domain experts with software development experts, and doctors with biomedical engineers, respectively) in model descriptions of existing MDD processes using a different modeling language. / [ES] En el Desarrollo de Software Dirigido por Modelos (DSDM) los modelos son la piedra angular del proceso de desarrollo de software, desplazando así al código fuente como artefacto principal. Aunque este enfoque centrado en modelos ofrece ventajas sobre el desarrollo de software tradicional (por ejemplo, la generación de código de forma automática a partir de los modelos) no tiene el nivel de adopción esperado.
La literatura científica revela un amplio acuerdo en el hecho de que los usuarios finales puedan ellos mismos desarrollar y adaptar los sistemas pero la complejidad de los estándares de modelado y la carencia de habilidades de modelado impide su participación activa en procesos DSDM existentes. Para lograrlo, los usuarios finales deben disponer de lenguajes de modelado diferentes con conceptos adaptados a sus habilidades, contexto y necesidades.
Este desafío es el objetivo principal de esta tesis que se aborda combinando las ideas del desarrollo orientado al usuario final y el DSDM. Este trabajo comienza involucrando usuarios finales en tareas de modelado con una herramienta que les proporciona un lenguaje de modelado visual para seleccionar y personalizar características de un sistema pervasivo utilizando conceptos familiares para ellos. Después, esta tesis motiva la necesidad de enriquecer procesos de DSDM existentes para soportar el desarrollo de una nueva generación de sistemas software (por ejemplo, salud inteligente) que requieren conocimientos especializados en una variedad de dominios. Consecuentemente, diferentes tipos de usuarios (por ejemplo, científicos, ingenieros y usuarios finales) deben participar activamente en la descripción de fragmentos de modelos que dependen de su experiencia utilizando un lenguaje de modelado diferente. De este modo, los usuarios pueden colaborar para obtener una descripción del sistema unificada. En este punto, es necesario proporcionar mecanismos que transformen e integren los fragmentos de un lenguaje de modelado a otro y delimiten qué fragmentos se describen por un usuario diferente.
Para proporcionar esto, la propuesta presentada utiliza la gestión de variabilidad de forma novedosa para permitir modelado colaborativo seleccionando fragmentos de un modelo del sistema que pueden ser descritos utilizando un lenguaje de modelado diferente y, la integración de esos fragmentos una vez que hayan sido descritos. Además, la propuesta utiliza mecanismos de interoperabilidad para conectar dos lenguajes de modelado diferentes transformando la descripción de los fragmentos de una manera no invasiva con su estructura. Por tanto, nuestra propuesta puede enriquecer los modelos de procesos DSDM existentes con fragmentos de modelos que han sido descritos con un lenguaje diferente y esto, podría hacer que los usuarios se sientan seguros al adoptar modelos para describir contenido de dominio específico y podría ayudar a adoptar procesos DSDM.
La propuesta ha sido validada en tres casos de estudio con diferentes niveles de complejidad y dominios: sistemas para el hogar inteligente, sistemas de información web y protocolos biomecánicos. Los resultados han demostrado la aplicabilidad y viabilidad de nuestra propuesta para involucrar diferentes tipos de usuarios (usuarios finales con profesionales de software, expertos en el dominio con expertos en desarrollo de software y, médicos con ingenieros biomédicos, respectivamente) en descripciones de modelos de procesos DSDM existentes utilizando un lenguaje de modelado diferente. / [CA] En el Desenvolupament de Programari Dirigit per Models (DPDM) els models són la pedra angular del procés de desenvolupament de programari, desplaçant així al codi font com a artefacte principal. Encara que aquest enfocament centrat en models ofereix avantatges sobre el desenvolupament de programari tradicional (per exemple, la generació de codi de forma automàtica a partir dels models) no té el nivell d'adopció esperat.
La literatura científica revela un ampli acord en el fet que els usuaris finals puguen ells mateixos desenvolupar i adaptar els sistemes però la complexitat dels estàndards de modelatge i la falta d'habilitats de modelatge impedeix la seua participació activa en processos DPDM existents. Per a aconseguir-ho, els usuaris finals han de disposar de llenguatges de modelatge diferents amb conceptes adaptats a les seues habilitats, context i necessitats.
Aquest desafiament és l'objectiu principal d'aquesta tesi que s'aborda combinant les idees del desenvolupament orientat a l'usuari final i el DPDM. Aquest treball comença involucrant usuaris finals en tasques de modelatge amb una eina que els proporciona un llenguatge de modelatge visual que permet als usuaris finals seleccionar i personalitzar característiques d'un sistema pervasiu utilitzant conceptes familiars per a ells. Després, aquesta tesi motiva la necessitat d'enriquir processos de DPDM existents per a suportar el desenvolupament d'una nova generació de sistemes programari (per exemple, salut intel¿ligent) que requereixen coneixements especialitzats en una varietat de dominis. Conseqüentment, diferents tipus d'usuaris (per exemple, científics, enginyers i usuaris finals) han de participar activament en la descripció de fragments de models que depenen de la seua experiència utilitzant un llenguatge de modelatge diferent. D'aquesta manera, els usuaris poden col¿laborar per a obtenir una descripció del sistema unificada. En aquest punt, és necessari proporcionar mecanismes que transformen i integren els fragments d'un llenguatge de modelatge a un altre i delimiten quins fragments es descriuen per un usuari diferent.
Per a proporcionar açò, la proposta presentada utilitza la gestió de variabilitat de forma nova per a permetre modelatge col.laboratiu seleccionant fragments d'un model del sistema que poden ser descrits utilitzant un llenguatge de modelatge diferent i, la integració d'aqueixos fragments una vegada que hagen sigut descrits. A més, la proposta utilitza mecanismes d'interoperabilitat per a connectar dos llenguatges de modelatge diferents transformant la descripció dels fragments d'una manera no invasiva amb la seua estructura. Per tant, la nostra proposta pot enriquir els models de processos DPDM existents amb fragments de models que han sigut descrits amb un llenguatge diferent i açò, podria fer que els usuaris se senten segurs en adoptar models per a descriure contingut de domini específic i podria ajudar a adoptar processos DPDM.
La proposta ha sigut validada en tres casos d'estudi amb diferents nivells de complexitat i dominis: sistemes per a la llar intel¿ligent, sistemes d'informació web i protocols biomecànics. Els resultats han demostrat l'aplicabilitat i viabilitat de la nostra proposta per a involucrar diferents tipus d'usuaris (usuaris finals amb professionals de programari, experts en el domini amb experts en desenvolupament de programari i, metges amb enginyers biomèdics, respectivament) en descripcions de models de processos DPDM existents utilitzant un llenguatge de modelatge diferent. / Pérez Pérez, MF. (2015). Achieving non-intrusive interoperability between models for involving users in modeling tasks [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58429
|
92 |
Modelización de la concurrencia en sistemas distribuidos multiagente: autómatas cooperativosHerrero Cuco, Carlos 07 January 2016 (has links)
[EN] The main objective of Doctoral Thesis "Modelling Concurrency in Distributed Multi-Agent Systems: Cooperating Automata" is the definition and extension of a model conceived to describe multi-agent systems that combines desirable features of the "Petri Nets" and "Automata Theory". Another goal is the definition of an automated analysis mechanism over the model in order to simplify those systems in subsystems to detect critical parts even before the end of the modelling phase. The last objective of the Doctoral Thesis is to develop some software tools in order to help designers with the edition, analysis and provide simulation of the systems modelled.
The expressive power of the model of the Cooperating Automata (CA) when describing concurrent systems has been swoen as one of the contributions of the Thesis. The model has been compared with other similar proposals in the literature such as "Parallel Finite Automata", "Team Automata" and "Reference Nets". Some convertion algorithms between AC and these proposal has been presented also.
Another contribution of the author is an extension of the original model, the Extended Cooperating Automata (ECA), which aims to improve usability and reduce the state diagram of automatons without sacrificing any of the desirable features of the original model. This extension has been defined adding clarity and readability to the resulting models and a more natural approach to represent common situations without the use of the full model of the Cooperative Automata because, in this case, some properties such as boundedness are undecidable.
The ECA model expressive power is completely equivalent to the original model. However, systems modelled with ECA are quite simple compared to the same systems modelled with CA. The same translations between systems shown before are now simplified. And another conversion two-ways algorithm between CA and ECA has been also described.
The complexity of new systems, and consequently their respective models, has been increasing constantly. In this sense, simplifying but also detecting
problems as bottlenecks is crucial at early stages of the design. Doing so over the implementation or implantation phases may duplicate the budget of the
whole construction of a given system. Some relations between ECA model parts has been defined in order to perform this authomatic analysis. i.e. Linking relation between an automaton and a transaction rule, Concurrency relation between two automata, and Competition relation between two transaction rules.
These relations are defined with four levels of certainty from the weakest to the strongest. The weakest relations can be obtaied automatically at design time. An algorithm of calculus can be applied to these relations in order to identify different threads, critical parts of the system and even superfluous or unifiable elements. This analysis can be performed regardless of heuristic knowledge about the system. An example of this analysis (applied over a system where the names of rules, controllers, actions and statements have been coded to conceal this heuristic) has been included also.
Finally, two software tools are presented, the first is a support system for modeling with ECA, which guides the designer with the description of the different parts that comprise the model. It includes syntax check and also can perform the a priori analysis automatically during the design stage. This tool presents a report of the analysis results. The second tool is an extended simulator capable to simulate both AC systems as ACE. The simulator provide non-determinism choice of rules and/or automata during execution. / [ES] La Tesis Doctoral "Modelización de la concurrencia en sistemas distribuidos multiagente: autómatas cooperativos" tiene como objetivo final la definición y extensión de un modelo para la descripción de sistemas multiagente que aúne características deseables de las "Redes de Petri" y la "Teoría de Autómatas", así como la definición de un mecanismo automatizable de análisis sobre los sistemas descritos con este modelo que permite la simplificación de los mismos en sub-sistemas y la detección de partes críticas antes incluso de finalizar el modelado. También como objetivo se persigue dotar al sistema de un software de ayuda que automatice las partes de diseño, de análisis y de simulación de los sistemas descritos.
Como aportaciones de la Tesis Doctoral se muestra la potencia expresiva del modelo de los Autómatas Cooperativos (AC) a la hora de describir sistemas concurrentes, además partiendo del modelo de los AC se realiza una comparativa de los mismos con otros modelos presentes en la literatura, como son los "Autómatas finitos Paralelos", los "Autómatas Team", y las "Redes de referencias", presentando en su caso mecanismos semiautomáticos de conversión entre los Automatas Cooperativos y ellos.
En la Tesis Doctoral también se define una extensión del modelo original cuyo objetivo es de mejorar su usabilidad y reducir el diagrama de estados de los autómatas sin renunciar a ninguna de las características deseables del modelo original, pero añadiendo, sin embargo, mayor claridad y legibilidad a los modelos resultantes y una manera más natural de enfocar situaciones habituales sin necesidad del uso del modelo completo de los Autómatas Cooperativos dado que en este caso no hay decibilidad sobre determinadas propiedades como la de acotamiento.
Los, así llamados, Autómatas Cooperativos Extendidos (ACE), cuya equivalencia expresiva con el modelo original es completa, permiten simplificar en gran medida y a tal efecto se muestran las simplificaciones resultantes en las conversiones entre sistemas desarrolladas anteriormente, así como un algoritmo de conversión entre el modelo AC original y el extendido.
Una vez realizada la extensión se plantea la necesidad de realizar un análisis de los sistemas modelados identificando partes críticas y subprocesos durante las etapas más temprana del diseño y que este análisis fuera, dentro de lo posible, automático. Para realizar dicho análisis se definen formalmente las relaciones existentes entre las distintas componentes del modelo. Más concretamente las relaciones de vinculación entre autómatas y reglas, las de concurrencia de autómatas en reglas y las de competencia de reglas por autómatas. Dichas relaciones se definen con cuatro niveles de certidumbre siendo la más débil la que puede obtenerse automáticamente en tiempo de diseño. Una vez explicadas las relaciones propone un algoritmo de cálculo que permite identificar tanto los subprocesos, las partes críticas del sistema e incluso los elementos supérfluos o unificables, independientemente del conocimiento heurístico que sobre el sistema a modelar se tenga. Un ejemplo de este cálculo presenta sobre un sistema tipo donde los nombres de reglas, autómatas, acciones y estados han sido codificados para ocultar dicha heurística.
Finalmente se presentan dos herramientas software, la primera es un sistema de ayuda para el modelado con los Autómatas Cooperativos Extendidos, que guia al diseñador en la descripción de las diferentes partes de las que consta el modelo verifica la sintaxis del mismo y parte de la lógica del mismo y a su vez permite realizar el análisis a priori antes mencionado de forma automática en cualquier momento del diseño, presentando un informe del resultado del mismo. La segunda es un simulador a su vez extendido para simular tanto sistemas AC como ACE y que permite el uso de no determinismo en la elección tanto de reglas como de autómatas. / [CA] La Tesi Doctoral "Modelització de la concurrència en sistemes distribuïts multiagent: autòmats cooperatius" té com a objectiu final la definició i extensió d'un model per a la descripció de sistemes multiagent que uneix característiques desitjables de les "Xarxes de Petri" i la "Teoria d'Autòmats", així com la definició d'un mecanisme automatitzable d'anàlisi sobre els sistemes descrits amb aquest model que permet la simplificació dels mateixos en sub-sistemes i la detecció de parts crítiques abans fins i tot de finalitzar el modelatge. També com a objectiu es persegueix dotar al sistema de programes d'ajuda que automatitzen les parts de disseny, d'anàlisi i de simulació dels sistemes descrits.
Com a aportacions de la Tesi Doctoral es mostra la potència expressiva del model dels Autòmats Cooperatius (AC) a l'hora de descriure sistemes concurrents, a més, partint del model dels AC, es realitza una comparativa dels mateixos amb altres models presents en la literatura, com són els "Autòmats finits Paral·lels", els "Autòmats Team", i les "Xarxes de referències", presentant si escau mecanismes semiautomàtics de conversió entre els Autòmats Cooperatius i ells.
En la Tesi Doctoral també es defineix una extensió del model original que el seu objectiu és de millorar la seua usabilitat i reduir el diagrama d'estats dels autòmats sense renunciar a cap de les característiques desitjables del model original, però afegint, no obstant açò, major claredat i llegibilitat als models resultants i una manera més natural d'enfocar situacions habituals sense necessitat de l'ús del model complet dels Autòmats Cooperatius atès que en aquest cas no hi ha decibilidad sobre determinades propietats com la d'acotament.
Els, així anomenats, Autòmats Cooperatius Estesos (*ACE), l'equivalència expressiva dels quals amb el model original és completa, permeten simplificar en gran mesura i a aquest efecte es mostren les simplificacions resultants en les conversions entre sistemes desenvolupades anteriorment, així com un algorisme de conversió entre el model AC original i l'estès.
Una vegada realitzada l'extensió es planteja la necessitat de realitzar una anàlisi dels sistemes modelats identificant parts crítiques i sub-processos durant les etapes més primerenca del disseny i que aquesta anàlisi fora, en la mesura del possible, automàtic. Per a realitzar aquesta anàlisi es defineixen formalment les relacions existents entre les diferents components del model. Més concretament les relacions de vinculació entre autòmats i regles, les de concurrència d'autòmats en regles i les de competència de regles per autòmats. Aquestes relacions es defineixen amb quatre nivells de certitud sent la més feble la que pot obtenir-se automàticament en temps de disseny. Una vegada explicades les relacions proposa un algorisme de càlcul que permet identificar tant els *sub-processos, les parts crítiques del sistema i fins i tot els elements innecesaris o unificables, independentment del coneixement heurístic que sobre el sistema a modelar es tinga. Un exemple d'aquest càlcul presenta sobre un sistema tipus on els noms de regles, autòmats, accions i estats han sigut codificats per a ocultar aquesta heurística.
Finalment es presenten dues eines software, la primera és un sistema d'ajuda per al modelatge amb els Autòmats Cooperatius Estesos, que ajuda al dissenyador en la descripció de les diferents parts de les quals consta el model verifica la sintaxi del mateix i part de la lògica del mateix i al seu torn permet realitzar l'anàlisi a priori abans esmentat de forma automàtica en qualsevol moment del disseny, presentant un informe del resultat del mateix. La segona és un simulador al seu torn estès per a simular tant sistemes AC com ACE i que permet l'ús de no determinisme en l'elecció tant de regles com d'autòmats. / Herrero Cuco, C. (2015). Modelización de la concurrencia en sistemas distribuidos multiagente: autómatas cooperativos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59442
|
93 |
Contributions to Deep Learning ModelsMansanet Sandín, Jorge 01 March 2016 (has links)
[EN] Deep Learning is a new area of Machine Learning research which aims to create computational models that learn several representations of the data using deep architectures. These methods have become very popular over the last few years due to the remarkable results obtained in speech recognition, visual object recognition, object detection, natural language processing, etc.
The goal of this thesis is to present some contributions to the Deep Learning framework, particularly focused on computer vision problems dealing with images. These contributions can be summarized in two novel methods proposed: a new regularization technique for Restricted Boltzmann Machines called Mask Selective Regularization (MSR), and a powerful discriminative network called Local Deep Neural Network (Local-DNN).
On the one hand, the MSR method is based on taking advantage of the benefits of the L2 and the L1 regularizations techniques. Both regularizations are applied dynamically on the parameters of the RBM according to the state of the model during training and the topology of the input space.
On the other hand, the Local-DNN model is based on two key concepts: local features and deep architectures. Similar to the convolutional networks, the Local-DNN model learns from local regions in the input image using a deep neural network. The network aims to classify each local feature according to the label of the sample to which it belongs, and all of these local contributions are taken into account during testing using a simple voting scheme.
The methods proposed throughout the thesis have been evaluated in several experiments using various image datasets. The results obtained show the great performance of these approaches, particularly on gender recognition using face images, where the Local-DNN improves other state-of-the-art results. / [ES] El Aprendizaje Profundo (Deep Learning en inglés) es una nueva área dentro del campo del Aprendizaje Automático que pretende crear modelos computacionales que aprendan varias representaciones de los datos utilizando arquitecturas profundas. Este tipo de métodos ha ganado mucha popularidad durante los últimos años debido a los impresionantes resultados obtenidos en diferentes tareas como el reconocimiento automático del habla, el reconocimiento y la detección automática de objetos, el procesamiento de lenguajes naturales, etc.
El principal objetivo de esta tesis es aportar una serie de contribuciones realizadas dentro del marco del Aprendizaje Profundo, particularmente enfocadas a problemas relacionados con la visión por computador. Estas contribuciones se resumen en dos novedosos métodos: una nueva técnica de regularización para Restricted Boltzmann Machines llamada Mask Selective Regularization (MSR), y una potente red neuronal discriminativa llamada Local Deep Neural Network (Local-DNN). Por una lado, el método MSR se basa en aprovechar las ventajas de las técnicas de regularización clásicas basadas en las normas L2 y L1. Ambas regularizaciones se aplican sobre los parámetros de la RBM teniendo en cuenta el estado del modelo durante el entrenamiento y la topología de los datos de entrada.
Por otro lado, El modelo Local-DNN se basa en dos conceptos fundamentales: características locales y arquitecturas profundas. De forma similar a las redes convolucionales, Local-DNN restringe el aprendizaje a regiones locales de la imagen de entrada. La red neuronal pretende clasificar cada característica local con la etiqueta de la imagen a la que pertenece, y, finalmente, todas estas contribuciones se tienen en cuenta utilizando un sencillo sistema de votación durante la predicción.
Los métodos propuestos a lo largo de la tesis han sido ampliamente evaluados en varios experimentos utilizando distintas bases de datos, principalmente en problemas de visión por computador. Los resultados obtenidos muestran el buen funcionamiento de dichos métodos, y sirven para validar las estrategias planteadas. Entre ellos, destacan los resultados obtenidos aplicando el modelo Local-DNN al problema del reconocimiento de género utilizando imágenes faciales, donde se han mejorado los resultados publicados del estado del arte. / [CA] L'Aprenentatge Profund (Deep Learning en anglès) és una nova àrea dins el camp de l'Aprenentatge Automàtic que pretén crear models computacionals que aprenguen diverses representacions de les dades utilitzant arquitectures profundes. Aquest tipus de mètodes ha guanyat molta popularitat durant els últims anys a causa dels impressionants resultats obtinguts en diverses tasques com el reconeixement automàtic de la parla, el reconeixement i la detecció automàtica d'objectes, el processament de llenguatges naturals, etc.
El principal objectiu d'aquesta tesi és aportar una sèrie de contribucions realitzades dins del marc de l'Aprenentatge Profund, particularment enfocades a problemes relacionats amb la visió per computador. Aquestes contribucions es resumeixen en dos nous mètodes: una nova tècnica de regularització per Restricted Boltzmann Machines anomenada Mask Selective Regularization (MSR), i una potent xarxa neuronal discriminativa anomenada Local Deep Neural Network ( Local-DNN). D'una banda, el mètode MSR es basa en aprofitar els avantatges de les tècniques de regularització clàssiques basades en les normes L2 i L1. Les dues regularitzacions s'apliquen sobre els paràmetres de la RBM tenint en compte l'estat del model durant l'entrenament i la topologia de les dades d'entrada.
D'altra banda, el model Local-DNN es basa en dos conceptes fonamentals: característiques locals i arquitectures profundes. De forma similar a les xarxes convolucionals, Local-DNN restringeix l'aprenentatge a regions locals de la imatge d'entrada. La xarxa neuronal pretén classificar cada característica local amb l'etiqueta de la imatge a la qual pertany, i, finalment, totes aquestes contribucions es fusionen durant la predicció utilitzant un senzill sistema de votació.
Els mètodes proposats al llarg de la tesi han estat àmpliament avaluats en diversos experiments utilitzant diferents bases de dades, principalment en problemes de visió per computador. Els resultats obtinguts mostren el bon funcionament d'aquests mètodes, i serveixen per validar les estratègies plantejades. Entre d'ells, destaquen els resultats obtinguts aplicant el model Local-DNN al problema del reconeixement de gènere utilitzant imatges facials, on s'han millorat els resultats publicats de l'estat de l'art. / Mansanet Sandín, J. (2016). Contributions to Deep Learning Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61296
|
94 |
REDES DE PROCESADORES GENÉTICOSCampos Frances, Marcelino 07 March 2016 (has links)
[EN] In this research, a new model of computing is presented, within the framework of natural computing and computer models inspired by biology: Networks of Genetic Processors (NGP). This new model is based on the one hand, by the family of networks of bio-inspired processors, specifically Networks of Evolutionary Processors (NEP) and Networks of Splicing Processors (NSP), and on the other hand by Genetic Algorithms. We can define the new model as a network of biologically-inspired processors where operations used by processors are crossover and mutation. One of the major interests studying the NGP is the computational power of the operations of crossover and mutation acting together. The NEP is a complete model that uses operations of symbol mutation: insertion, substitution and deletion, the NSP is a complete model that uses splicing operations, but the NEP is no longer a complete model using only substitution operations, as it happens to the NSP if we restrict the context of its splicing rules to the empty context. The study of the new model presented here responds to what happens when we put together in a single model the substitution rules from the NEP (called mutation rules) and the splicing rules with empty context from the NSP (called crossover rules).
When we work with networks of biologically-inspired processors there are two basic types of networks, accepting networks and generating networks. These types of networks are mainly used to work at a theoretical level or to solve decision problems. To work on a more practical level such as solving optimization problems, we propose a new type of network, Networks of Genetic processors as Parallel Genetic Algorithms, inspired by the Parallel Genetic Algorithms.
In this work we prove the computational completeness of our new model by showing that it is equivalent to the Turing machine. We prove the computational completeness of Parallel Genetic Algorithms by using this result and the similarity between the NGP and Parallel Genetic Algorithms. Moreover, we propose a characterization of the Chomsky hierarchy by using the NGP. Here, we simulate every grammar in the language classes of the Chomsky's hierarchy by using a NGP with an small number of processors required for each simulation. Hence, it gives an appreciable idea of the descriptional complexity of the different families of languages.
Finally, in this work there is an experimental study of the behavior of the model for the resolution of some practical problems. First, we design and implement a simulator that allows the execution of networks of Genetic Processors in any of its three defined types: accepting networks, generating networks or as Parallel Genetic Algorithms. This allows us to test the model with different optimization problems. Then, we make a study to see if the new model could solve NP problems in polynomial time. We use the decision problem of Hamiltonian cycle in a graph. Finally, we test the simulator with two optimization problems showing a good computational behavior. The problems are the Multidimensional Knapsack problem and the Traveling Salesman problem. / [ES] Desde la rama de la biocomputación, la computación con modelos inspirados en la biología, esta investigación presenta un nuevo modelo de computación: las Redes de Procesadores Genéticos (NGP). Este nuevo modelo parte, por un lado, de la familia de modelos de redes de procesadores, más concretamente de las Redes de Procesadores Evolutivos (NEP) y las Redes de Procesadores de Splicing (NSP), y por otra parte se inspira en los Algoritmos Genéticos. Así pues, se puede definir de manera informal el nuevo modelo como una red de procesadores bioinspirados donde las operaciones utilizadas por los procesadores son operaciones de cruce y mutación. Uno de los mayores intereses del estudio de las NGP es la capacidad conjunta de las operaciones de cruce y mutación, las NEP son un modelo completo que utiliza operaciones de evolución, es decir, inserción, substitución y borrado, las NSP son un modelo completo que utiliza operaciones de splicing, pero las NEP dejan de ser un modelo completo al usar sólo operaciones de substitución, al igual que le pasa a las NSP si restringimos el contexto de sus reglas de splicing a vacío. El estudio del nuevo modelo aquí presentado da respuesta a qué es lo que pasa cuando juntamos en un sólo modelo las operaciones de sustitución de las NEP (llamadas reglas de mutación) y las operaciones de splicing con contexto vacío de las NSP (llamadas reglas de cruce).
Cuando se trabaja con redes de procesadores bioinspirados se definen principalmente dos tipos de redes, las redes aceptoras y las redes generadoras. Estos tipos de redes sirven principalmente para trabajar a un nivel teórico o para resolver problemas de decisión. Para trabajar a un nivel más práctico como por ejemplo con problemas de optimización, se propone un nuevo tipo de red, las Redes de Procesadores Genéticos como Algoritmos Genéticos Paralelos, llamadas así por inspirarse en los Algoritmos Genéticos Paralelos.
A nivel teórico, se ha podido demostrar la completitud computacional del modelo, con lo que su potencia de computación se sitúa al mismo nivel que el de las maquinas de Turing. A raíz de este resultado y dada la gran similitud entre las NGP y los Algoritmos Genéticos Paralelos, en este trabajo se demuestra que éstos también son un modelo de computación completo. Por otra parte se ha podido realizar una caracterización de la jerarquía de Chomsky utilizando las NGP, para ello se simula cada una de las gramáticas que definen las cuatro familias de lenguajes de dicha jerarquía observando el mínimo número de procesadores necesarios para cada simulación, lo cual da una idea apreciable de la diferencia de complejidad entre las diferentes familias.
No falta en este trabajo un estudio de la parte más práctica del modelo con la realización de algunas tareas. Primero se ha diseñado e implementado un simulador que permite la ejecución de Redes de Procesadores Genéticos en cualquiera de sus tres vertientes aquí definidas, como aceptoras, como generadoras o como Algoritmos Genéticos Paralelos, esto permite realizar pruebas con diferentes problemas de optimización. A continuación se ha realizado un estudio para ver si el nuevo modelo era capaz de resolver problemas NP en tiempo polinómico, para ello se ha trabajado con el problema de ver si existe algún ciclo Hamiltoniano en un grafo. Finalmente se ha probado el simulador con dos problemas de optimización en los que se ha detectado un buen comportamiento del mismo, los problemas utilizados han sido el problema de la mochila multidimensional y el problema del viajante de comercio. / [CA] Des de la branca de la biocomputació (la computació amb models inspirats amb la biologia) aquesta investigació presenta un nou model de computació: Les Xarxes de Processadors Genètics (NGP). Aquest nou model ve, d'una banda, de la família de models de xarxes de processadors, més concretament de les Xarxes de Processadors Evolutius (NEP) i de les Xarxes de Processadors de Splicing (NSP) i d'altra banda s'inspira als Algoritmes Genètics. Així doncs, es pot definir d'una manera informal el nou model com una xarxa de processadors bioinspirats on les operacions utilitzades per els processadors són operacions de creuament i mutació. Un dels elements més interessants de l'estudi de les NGP és la capacitat conjunta de les operacions de creuament i mutació, les NEP són un model complet que utilitza operacions evolutives, és a dir, insercions, substitucions i esborrats, les NSP són un model complet que utilitza operacions de splicing, però les NEP deixen de ser un model complet al gastar sols operacions de substitució, al igual que li passa a les NSP si restringim el context de les seues regles de splicing a buit. L'estudi del nou model presentat ací dóna resposta a què és el que passa quan ajuntem a un sol model les operacions de substitució de les NEP (anomenades regles de mutació) i les operacions de splicing amb context buit de les NSP (anomenades regles de creuament).
Quan es treballa amb xarxes de processadors bioinspirats es defineixen principalment dos tipus de xarxes, les xarxes aceptores i les xarxes generadores. Aquests tipus de xarxes s'utilitzen principalment per a treballar a nivell teòric o per a resoldre problemes de decisió. Per treballar a un nivell més pràctic, com per exemple amb problemes d'optimització, es proposa un nou tipus de xarxa, les Xarxes de Processadors Genètics com Algoritmes Genètics Paral·lels, anomenats així per estar inspirats en els Algoritmes Genètics Paral·lels.
A nivell teòric, s'ha pogut demostrar la completitut computacional del model, amb el que la seua potència computacional es situa al mateix nivell que les màquines de Turing. Degut a aquest resultat i donada la gran similitud entre les NGP i els Algoritmes genètics Paral·lels, en aquest treball es demostra que aquestos també són un model computacional complet. D'altra banda, s'ha pogut realitzar una caracterització de la jerarquia de Chomsky utilitzant les NGP, aquest procés es realitza simulant cada una de les gramàtiques que defineixen les quatre famílies de llenguatges d'aquesta jerarquia observant el mínim nombre de processadors necessaris per a cada simulació, el que ens dóna una idea apreciable de la diferència de complexitat entre les diferents famílies.
No falta a aquest treball un estudi de la part més pràctica del model com la realització d'algunes tasques. Primer s'ha dissenyat i implementat un simulador que permet l'execució de Xarxes de Processadors Genètics a qualsevol de les seues tres varietats ací definides, com aceptores, com a generadores o com a Algoritmes Genètics Paral·lels, amb el que podem realitzar proves amb diferents problemes d'optimització. A continuació s'ha realitzat un estudi per vore si el nou model era capaç de resoldre problemes NP en un temps polinòmic, estudi que hem realitzat utilitzant el problema de saber si existeix algun cicle Hamiltonià en un graf. Finalment s'ha provat el simulador amb dos problemes d'optimització als que s'ha comprovat que té un bon comportament, els problemes utilitzats són el problema de la motxilla multidimensional i el problema del viatjant de comerç. / Campos Frances, M. (2016). REDES DE PROCESADORES GENÉTICOS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61452
|
95 |
TRAMMAS: Enhancing Communication in Multiagent SystemsBúrdalo Rapa, Luis Antonio 14 March 2016 (has links)
Tesis por compendio / [EN] Over the last years, multiagent systems have been proven to be a powerful and versatile paradigm, with a big
potential when it comes to solving complex problems in dynamic and distributed environments, due to their flexible
and adaptive behavior. This potential does not only come from the individual features of agents (such as autonomy,
reactivity or reasoning power), but also to their capability to communicate, cooperate and coordinate in order to
fulfill their goals. In fact, it is this social behavior what makes multiagent systems so powerful, much more than the
individual capabilities of agents.
The social behavior of multiagent systems is usually developed by means of high
level abstractions, protocols and languages, which normally rely on (or at least, benefit from) agents being able to
communicate and interact indirectly. However, in the development process, such high level concepts habitually
become weakly supported, with mechanisms such as traditional messaging, massive broadcasting, blackboard
systems or ad hoc solutions. This lack of an appropriate way to support indirect communication in actual multiagent
systems compromises their potential.
This PhD thesis proposes the use of event tracing as a flexible, effective and efficient support for indirect interaction
and communication in multiagent systems. The main contribution of this thesis is TRAMMAS, a generic, abstract
model for event tracing support in multiagent systems. The model allows all entities in the system to share their
information as trace events, so that any other entity which require this information is able to receive it. Along with
the model, the thesis also presents an abstract architecture, which redefines the model in terms of a set of tracing
facilities that can be then easily incorporated to an actual multiagent platform. This architecture follows a
service-oriented approach, so that the tracing facilities are provided in the same way than other traditional services
offered by the platform. In this way, event tracing can be considered as an additional information provider for
entities in the multiagent system, and as such, it can be integrated from the earliest stages of the development
process. / [ES] A lo largo de los últimos años, los sistemas multiagente han demostrado ser un paradigma potente y versátil,
con un gran potencial a la hora de resolver problemas complejos en entornos dinámicos y distribuidos, gracias a
su comportamiento flexible y adaptativo. Este potencial no es debido únicamente a las características individuales
de los agentes (como son su autonomía, y su capacidades de reacción y de razonamiento), sino que también se
debe a su capacidad de comunicación y cooperación a la hora de conseguir sus objetivos. De hecho, por encima
de la capacidad individual de los agentes, es este comportamiento social el que dota de potencial a los sistemas
multiagente.
El comportamiento social de los sistemas multiagente suele desarrollarse empleando abstracciones, protocolos y
lenguajes de alto nivel, los cuales, a su vez, se basan normalmente en la capacidad para comunicarse e
interactuar de manera indirecta de los agentes (o como mínimo, se benefician en gran medida de dicha
capacidad). Sin embargo, en el proceso de desarrollo software, estos conceptos de alto nivel son soportados
habitualmente de manera débil, mediante mecanismos como la mensajería tradicional, la difusión masiva, o el uso
de pizarras, o mediante soluciones totalmente ad hoc. Esta carencia de un soporte genérico y apropiado para la
comunicación indirecta en los sistemas multiagente reales compromete su potencial.
Esta tesis doctoral propone el uso del trazado de eventos como un soporte flexible, efectivo y eficiente para la
comunicación indirecta en sistemas multiagente. La principal contribución de esta tesis es TRAMMAS, un modelo
genérico y abstracto para dar soporte al trazado de eventos en sistemas multiagente. El modelo permite a
cualquier entidad del sistema compartir su información en forma de eventos de traza, de tal manera que cualquier
otra entidad que requiera esta información sea capaz de recibirla. Junto con el modelo, la tesis también presenta
una arquitectura {abs}{trac}{ta}, que redefine el modelo como un conjunto de funcionalidades que pueden ser
fácilmente incorporadas a una plataforma multiagente real. Esta arquitectura sigue un enfoque orientado a
servicios, de modo que las funcionalidades de traza son ofrecidas por parte de la plataforma de manera similar a
los servicios tradicionales. De esta forma, el trazado de eventos puede ser considerado como una fuente adicional
de información para las entidades del sistema multiagente y, como tal, puede integrarse en el proceso de
desarrollo software desde sus primeras etapas. / [CA] Al llarg dels últims anys, els sistemes multiagent han demostrat ser un paradigma potent i versàtil, amb un gran
potencial a l'hora de resoldre problemes complexes a entorns dinàmics i distribuïts, gràcies al seu comportament
flexible i adaptatiu. Aquest potencial no és només degut a les característiques individuals dels agents (com són la
seua autonomia, i les capacitats de reacció i raonament), sinó també a la seua capacitat de comunicació i
cooperació a l'hora d'aconseguir els seus objectius. De fet, per damunt de la capacitat individual dels agents, es
aquest comportament social el que dóna potencial als sistemes multiagent.
El comportament social dels sistemes multiagent solen desenvolupar-se utilitzant abstraccions, protocols i
llenguatges d'alt nivell, els quals, al seu torn, es basen normalment a la capacitat dels agents de comunicar-se i
interactuar de manera indirecta (o com a mínim, es beneficien en gran mesura d'aquesta capacitat). Tanmateix, al
procés de desenvolupament software, aquests conceptes d'alt nivell son suportats habitualment d'una manera
dèbil, mitjançant mecanismes com la missatgeria tradicional, la difusió massiva o l'ús de pissarres, o mitjançant
solucions totalment ad hoc. Aquesta carència d'un suport genèric i apropiat per a la comunicació indirecta als
sistemes multiagent reals compromet el seu potencial.
Aquesta tesi doctoral proposa l'ús del traçat d'esdeveniments com un suport flexible, efectiu i eficient per a la
comunicació indirecta a sistemes multiagent. La principal contribució d'aquesta tesi és TRAMMAS, un model
genèric i abstracte per a donar suport al traçat d'esdeveniments a sistemes multiagent. El model permet a
qualsevol entitat del sistema compartir la seua informació amb la forma d'esdeveniments de traça, de tal forma que
qualsevol altra entitat que necessite aquesta informació siga capaç de rebre-la. Junt amb el model, la tesi també
presenta una arquitectura abstracta, que redefineix el model com un conjunt de funcionalitats que poden ser
fàcilment incorporades a una plataforma multiagent real. Aquesta arquitectura segueix un enfoc orientat a serveis,
de manera que les funcionalitats de traça són oferides per part de la plataforma de manera similar als serveis
tradicionals. D'aquesta manera, el traçat d'esdeveniments pot ser considerat com una font addicional d'informació
per a les entitats del sistema multiagent, i com a tal, pot integrar-se al procés de desenvolupament software des de
les seues primeres etapes. / Búrdalo Rapa, LA. (2016). TRAMMAS: Enhancing Communication in Multiagent Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61765 / Compendio
|
96 |
Measures of Privacy Protection on Social EnvironmentsAlemany Bordera, José 13 October 2020 (has links)
Tesis por compendio / [EN] Nowadays, online social networks (OSNs) have become a mainstream cultural phenomenon for millions of Internet users. Social networks are an ideal environment for
generating all kinds of social benefits for users. Users share experiences, keep in touch
with their family, friends and acquaintances, and earn economic benefits from the
power of their influence (which is translated into new job opportunities). However,
the use of social networks and the action of sharing information imply the loss of the
users’ privacy.
Recently, a great interest in protecting the privacy of users has emerged. This situation
has been due to documented cases of regrets in users’ actions, company scandals produced by misuse of personal information, and the biases introduced by privacy mechanisms. Social network providers have included improvements in their systems to reduce
users’ privacy risks; for example, restricting privacy policies by default, adding new privacy settings, and designing quick and easy shortcuts to configure user privacy settings.
In the privacy researcher area, new advances are proposed to improve privacy mechanisms, most of them focused on automation, fine-grained systems, and the usage of
features extracted from the user’s profile information and interactions to recommend
the best privacy policy for the user. Despite these advances, many studies have shown
that users’ concern for privacy does not match the decisions they ultimately make in
social networks. This misalignment in the users’ behavior might be due to the complexity of the privacy concept itself. This drawback causes users to disregard privacy risks,
or perceive them as temporarily distant. Another cause of users’ behavior misalignment might be due to the complexity of the privacy decision-making process. This is
because users should consider all possible scenarios and the factors involved (e.g., the
number of friends, the relationship type, the context of the information, etc.) to make
an appropriate privacy decision.
The main contributions of this thesis are the development of metrics to assess privacy
risks, and the proposal of explainable privacy mechanisms (using the developed metrics) to assist and raise awareness among users during the privacy decision process.
Based on the definition of the concept of privacy, the dimensions of information scope
and information sensitivity have been considered in this thesis to assess privacy risks.
For explainable privacy mechanisms, soft paternalism techniques and gamification elements that make use of the proposed metrics have been designed. These mechanisms
have been integrated into the social network PESEDIA and evaluated in experiments
with real users. PESEDIA is a social network developed in the framework of the Master’s
thesis of the Ph.D. student [15], this thesis, and the national projects “Privacy in Social Educational Environments during Childhood and Adolescence” (TIN2014-55206-
R) and “Intelligent Agents for Privacy Advice in Social Networks” (TIN2017-89156-R).
The findings confirm the validity of the proposed metrics for computing the users’ scope
and the sensitivity of social network publications. For the scope metric, the results also
showed the possibility of estimating it through local and social centrality metrics for
scenarios with limited information access. For the sensitivity metric, the results also
remarked the users’ misalignment for some information types and the consensus for a
majority of them. The usage of these metrics as part of messages about potential consequences of privacy policy choices and information sharing actions to users showed
positive effects on users’ behavior regarding privacy. Furthermore, the findings of exploring the users’ trade-off between costs and benefits during disclosure actions of personal information showed significant relationships with the usual social circles (family
members, friends, coworkers, and unknown users) and their properties. This allowed
designing better privacy mechanisms that appropriately restrict access to information and reduce regrets. Finally, gamification elements applied to social networks and
users’ privacy showed a positive effect on the users’ behavior towards privacy and safe
practices in social networks. / [ES] En la actualidad, las redes sociales se han convertido en un fenómeno cultural dominante para millones de usuarios de Internet. Las redes sociales son un entorno ideal
para la generación de todo tipo de beneficios sociales para los usuarios. Los usuarios
comparten experiencias, mantienen el contacto con sus familiares, amigos y conocidos,
y obtienen beneficios económicos gracias al poder de su influencia (lo que se traduce en
nuevas oportunidades de trabajo). Sin embargo, el uso de las redes sociales y la acción
de compartir información implica la perdida de la privacidad de los usuarios.
Recientemente ha emergido un gran interés en proteger la privacidad de los usuarios. Esta situación se ha debido a los casos de arrepentimientos documentados en las
acciones de los usuarios, escándalos empresariales producidos por usos indebidos de
la información personal, y a los sesgos que introducen los mecanismos de privacidad.
Los proveedores de redes sociales han incluido mejoras en sus sistemas para reducir los
riesgos en privacidad de los usuarios; por ejemplo, restringiendo las políticas de privacidad por defecto, añadiendo nuevos elementos de configuración de la privacidad, y
diseñando accesos fáciles y directos para configurar la privacidad de los usuarios. En el
campo de la investigación de la privacidad, nuevos avances se proponen para mejorar
los mecanismos de privacidad la mayoría centrados en la automatización, selección de
grano fino, y uso de características extraídas de la información y sus interacciones para
recomendar la mejor política de privacidad para el usuario. A pesar de estos avances,
muchos estudios han demostrado que la preocupación de los usuarios por la privacidad no se corresponde con las decisiones que finalmente toman en las redes sociales.
Este desajuste en el comportamiento de los usuarios podría deberse a la complejidad
del propio concepto de privacidad. Este inconveniente hace que los usuarios ignoren
los riesgos de privacidad, o los perciban como temporalmente distantes. Otra causa
del desajuste en el comportamiento de los usuarios podría deberse a la complejidad
del proceso de toma de decisiones sobre la privacidad. Esto se debe a que los usuarios
deben considerar todos los escenarios posibles y los factores involucrados (por ejemplo, el número de amigos, el tipo de relación, el contexto de la información, etc.) para
tomar una decisión apropiada sobre la privacidad.
Las principales contribuciones de esta tesis son el desarrollo de métricas para evaluar los riesgos de privacidad, y la propuesta de mecanismos de privacidad explicables
(haciendo uso de las métricas desarrolladas) para asistir y concienciar a los usuarios
durante el proceso de decisión sobre la privacidad. Atendiendo a la definición del
concepto de la privacidad, las dimensiones del alcance de la información y la sensibilidad de la información se han considerado en esta tesis para evaluar los riesgos de privacidad. En cuanto a los mecanismos de privacidad explicables, se han diseñado utilizando técnicas de paternalismo blando y elementos de gamificación que hacen uso de
las métricas propuestas. Estos mecanismos se han integrado en la red social PESEDIA
y evaluado en experimentos con usuarios reales. PESEDIA es una red social desarrollada en el marco de la tesina de Master del doctorando [15], esta tesis y los proyectos
nacionales “Privacidad en Entornos Sociales Educativos durante la Infancia y la Adolescencia” (TIN2014-55206-R) y “Agentes inteligentes para asesorar en privacidad en
redes sociales” (TIN2017-89156-R).
Los resultados confirman la validez de las métricas propuestas para calcular el alcance
de los usuarios y la sensibilidad de las publicaciones de las redes sociales. En cuanto
a la métrica del alcance, los resultados también mostraron la posibilidad de estimarla
mediante métricas de centralidad local y social para escenarios con acceso limitado a
la información. En cuanto a la métrica de sensibilidad, los resultados también pusieron
de manifiesto la falta de concordancia de los usuarios en el caso de algunos tipos de información y el consenso en el caso de la mayoría de ellos. El uso de estas métricas como
parte de los mensajes sobre las posibles consecuencias de las opciones de política de
privacidad y las acciones de intercambio de información a los usuarios mostró efectos
positivos en el comportamiento de los usuarios con respecto a la privacidad. Además,
los resultados de la exploración de la compensación de los usuarios entre los costos y
los beneficios durante las acciones de divulgación de información personal mostraron
relaciones significativas con los círculos sociales habituales (familiares, amigos, compañeros de trabajo y usuarios desconocidos) y sus propiedades. Esto permitió diseñar
mejores mecanismos de privacidad que restringen adecuadamente el acceso a la información y reducen los arrepentimientos. Por último, los elementos de gamificación
aplicados a las redes sociales y a la privacidad de los usuarios mostraron un efecto positivo en el comportamiento de los usuarios hacia la privacidad y las prácticas seguras
en las redes sociales. / [CA] En l’actualitat, les xarxes socials s’han convertit en un fenomen cultural dominant per
a milions d’usuaris d’Internet. Les xarxes socials són un entorn ideal per a la generació
de tota mena de beneficis socials per als usuaris. Els usuaris comparteixen experiències, mantenen el contacte amb els seus familiars, amics i coneguts, i obtenen beneficis
econòmics gràcies al poder de la seva influència (el que es tradueix en noves oportunitats de treball). No obstant això, l’ús de les xarxes socials i l’acció de compartir
informació implica la perduda de la privacitat dels usuaris.
Recentment ha emergit un gran interès per protegir la privacitat dels usuaris. Aquesta
situació s’ha degut als casos de penediments documentats en les accions dels usuaris,
escàndols empresarials produïts per usos indeguts de la informació personal, i als caires
que introdueixen els mecanismes de privacitat. Els proveïdors de xarxes socials han inclòs millores en els seus sistemes per a reduir els riscos en privacitat dels usuaris; per exemple, restringint les polítiques de privacitat per defecte, afegint nous elements de configuració de la privacitat, i dissenyant accessos fàcils i directes per a configurar la privacitat dels usuaris. En el camp de la recerca de la privacitat, nous avanços es proposen
per a millorar els mecanismes de privacitat la majoria centrats en l’automatització,
selecció de gra fi, i ús de característiques extretes de la informació i les seues interaccions per a recomanar la millor política de privacitat per a l’usuari. Malgrat aquests
avanços, molts estudis han demostrat que la preocupació dels usuaris per la privacitat
no es correspon amb les decisions que finalment prenen en les xarxes socials. Aquesta
desalineació en el comportament dels usuaris podria deure’s a la complexitat del propi
concepte de privacitat. Aquest inconvenient fa que els usuaris ignorin els riscos de privacitat, o els percebin com temporalment distants. Una altra causa de la desalineació
en el comportament dels usuaris podria deure’s a la complexitat del procés de presa de
decisions sobre la privacitat. Això es deu al fet que els usuaris han de considerar tots
els escenaris possibles i els factors involucrats (per exemple, el nombre d’amics, el tipus
de relació, el context de la informació, etc.) per a prendre una decisió apropiada sobre
la privacitat.
Les principals contribucions d’aquesta tesi són el desenvolupament de mètriques per a
avaluar els riscos de privacitat, i la proposta de mecanismes de privacitat explicables
(fent ús de les mètriques desenvolupades) per a assistir i conscienciar als usuaris durant
el procés de decisió sobre la privacitat. Atesa la definició del concepte de la privacitat,
les dimensions de l’abast de la informació i la sensibilitat de la informació s’han considerat en aquesta tesi per a avaluar els riscos de privacitat. Respecte als mecanismes
de privacitat explicables, aquests s’han dissenyat utilitzant tècniques de paternalisme bla i elements de gamificació que fan ús de les mètriques propostes. Aquests mecanismes s’han integrat en la xarxa social PESEDIA i avaluat en experiments amb usuaris
reals. PESEDIA és una xarxa social desenvolupada en el marc de la tesina de Màster del
doctorant [15], aquesta tesi i els projectes nacionals “Privacitat en Entorns Socials Educatius durant la Infància i l’Adolescència” (TIN2014-55206-R) i “Agents Intel·ligents
per a assessorar en Privacitat en xarxes socials” (TIN2017-89156-R).
Els resultats confirmen la validesa de les mètriques propostes per a calcular l’abast de
les accions dels usuaris i la sensibilitat de les publicacions de les xarxes socials. Respecte a la mètrica de l’abast, els resultats també van mostrar la possibilitat d’estimarla mitjançant mètriques de centralitat local i social per a escenaris amb accés limitat
a la informació. Respecte a la mètrica de sensibilitat, els resultats també van posar
de manifest la falta de concordança dels usuaris en el cas d’alguns tipus d’informació
i el consens en el cas de la majoria d’ells. L’ús d’aquestes mètriques com a part dels
missatges sobre les possibles conseqüències de les opcions de política de privacitat i les
accions d’intercanvi d’informació als usuaris va mostrar efectes positius en el comportament dels usuaris respecte a la privacitat. A més, els resultats de l’exploració de la
compensació dels usuaris entre els costos i els beneficis durant les accions de divulgació
d’informació personal van mostrar relacions significatives amb els cercles socials habituals (familiars, amics, companys de treball i usuaris desconeguts) i les seves propietats. Això ha permés dissenyar millors mecanismes de privacitat que restringeixen
adequadament l’accés a la informació i redueixen els penediments. Finalment, els elements de gamificació aplicats a les xarxes socials i a la privacitat dels usuaris van
mostrar un efecte positiu en el comportament dels usuaris cap a la privacitat i les pràctiques segures en les xarxes socials. / Alemany Bordera, J. (2020). Measures of Privacy Protection on Social Environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/151456 / Compendio
|
97 |
On the Detection of False Information: From Rumors to Fake NewsGhanem, Bilal Hisham Hasan 10 January 2021 (has links)
Tesis por compendio / [ES] En tiempos recientes, el desarrollo de las redes sociales y de las agencias de noticias han traído nuevos retos y amenazas a la web. Estas amenazas han llamado la atención de la comunidad investigadora en Procesamiento del Lenguaje Natural (PLN) ya que están contaminando las plataformas de redes sociales. Un ejemplo de amenaza serían las noticias falsas, en las que los usuarios difunden y comparten información falsa, inexacta o engañosa. La información falsa no se limita a la información verificable, sino que también incluye información que se utiliza con fines nocivos. Además, uno de los desafíos a los que se enfrentan los investigadores es la gran cantidad de usuarios en las plataformas de redes sociales, donde detectar a los difusores de información falsa no es tarea fácil.
Los trabajos previos que se han propuesto para limitar o estudiar el tema de la detección de información falsa se han centrado en comprender el lenguaje de la información falsa desde una perspectiva lingüística. En el caso de información verificable, estos enfoques se han propuesto en un entorno monolingüe. Además, apenas se ha investigado la detección de las fuentes o los difusores de información falsa en las redes sociales.
En esta tesis estudiamos la información falsa desde varias perspectivas. En primer lugar, dado que los trabajos anteriores se centraron en el estudio de la información falsa en un entorno monolingüe, en esta tesis estudiamos la información falsa en un entorno multilingüe. Proponemos diferentes enfoques multilingües y los comparamos con un conjunto de baselines monolingües. Además, proporcionamos estudios sistemáticos para los resultados de la evaluación de nuestros enfoques para una mejor comprensión. En segundo lugar, hemos notado que el papel de la información afectiva no se ha investigado en profundidad. Por lo tanto, la segunda parte de nuestro trabajo de investigación estudia el papel de la información afectiva en la información falsa y muestra cómo los autores de contenido falso la emplean para manipular al lector. Aquí, investigamos varios tipos de información falsa para comprender la correlación entre la información afectiva y cada tipo (Propaganda, Trucos / Engaños, Clickbait y Sátira).
Por último, aunque no menos importante, en un intento de limitar su propagación, también abordamos el problema de los difusores de información falsa en las redes sociales. En esta dirección de la investigación, nos enfocamos en explotar varias características basadas en texto extraídas de los mensajes de perfiles en línea de tales difusores. Estudiamos diferentes conjuntos de características que pueden tener el potencial de ayudar a discriminar entre difusores de información falsa y verificadores de hechos. / [CA] En temps recents, el desenvolupament de les xarxes socials i de les agències de notícies han portat nous reptes i amenaces a la web. Aquestes amenaces han cridat l'atenció de la comunitat investigadora en Processament de Llenguatge Natural (PLN) ja que estan contaminant les plataformes de xarxes socials. Un exemple d'amenaça serien les notícies falses, en què els usuaris difonen i comparteixen informació falsa, inexacta o enganyosa. La informació falsa no es limita a la informació verificable, sinó que també inclou informació que s'utilitza amb fins nocius. A més, un dels desafiaments als quals s'enfronten els investigadors és la gran quantitat d'usuaris en les plataformes de xarxes socials, on detectar els difusors d'informació falsa no és tasca fàcil.
Els treballs previs que s'han proposat per limitar o estudiar el tema de la detecció d'informació falsa s'han centrat en comprendre el llenguatge de la informació falsa des d'una perspectiva lingüística. En el cas d'informació verificable, aquests enfocaments s'han proposat en un entorn monolingüe. A més, gairebé no s'ha investigat la detecció de les fonts o els difusors d'informació falsa a les xarxes socials.
En aquesta tesi estudiem la informació falsa des de diverses perspectives. En primer lloc, atès que els treballs anteriors es van centrar en l'estudi de la informació falsa en un entorn monolingüe, en aquesta tesi estudiem la informació falsa en un entorn multilingüe. Proposem diferents enfocaments multilingües i els comparem amb un conjunt de baselines monolingües. A més, proporcionem estudis sistemàtics per als resultats de l'avaluació dels nostres enfocaments per a una millor comprensió. En segon lloc, hem notat que el paper de la informació afectiva no s'ha investigat en profunditat. Per tant, la segona part del nostre treball de recerca estudia el paper de la informació afectiva en la informació falsa i mostra com els autors de contingut fals l'empren per manipular el lector. Aquí, investiguem diversos tipus d'informació falsa per comprendre la correlació entre la informació afectiva i cada tipus (Propaganda, Trucs / Enganys, Clickbait i Sàtira).
Finalment, però no menys important, en un intent de limitar la seva propagació, també abordem el problema dels difusors d'informació falsa a les xarxes socials. En aquesta direcció de la investigació, ens enfoquem en explotar diverses característiques basades en text extretes dels missatges de perfils en línia de tals difusors. Estudiem diferents conjunts de característiques que poden tenir el potencial d'ajudar a discriminar entre difusors d'informació falsa i verificadors de fets. / [EN] In the recent years, the development of social media and online news agencies has brought several challenges and threats to the Web. These threats have taken the attention of the Natural Language Processing (NLP) research community as they are polluting the online social media platforms. One of the examples of these threats is false information, in which false, inaccurate, or deceptive information is spread and shared by online users. False information is not limited to verifiable information, but it also involves information that is used for harmful purposes. Also, one of the challenges that researchers have to face is the massive number of users in social media platforms, where detecting false information spreaders is not an easy job.
Previous work that has been proposed for limiting or studying the issue of detecting false information has focused on understanding the language of false information from a linguistic perspective. In the case of verifiable information, approaches have been proposed in a monolingual setting. Moreover, detecting the sources or the spreaders of false information in social media has not been investigated much.
In this thesis we study false information from several aspects. First, since previous work focused on studying false information in a monolingual setting, in this thesis we study false information in a cross-lingual one. We propose different cross-lingual approaches and we compare them to a set of monolingual baselines. Also, we provide systematic studies for the evaluation results of our approaches for better understanding. Second, we noticed that the role of affective information was not investigated in depth. Therefore, the second part of our research work studies the role of the affective information in false information and shows how the authors of false content use it to manipulate the reader. Here, we investigate several types of false information to understand the correlation between affective information and each type (Propaganda, Hoax, Clickbait, Rumor, and Satire).
Last but not least, in an attempt to limit its spread, we also address the problem of detecting false information spreaders in social media. In this research direction, we focus on exploiting several text-based features extracted from the online profile messages of those spreaders. We study different feature sets that can have the potential to help to identify false information spreaders from fact checkers. / Ghanem, BHH. (2020). On the Detection of False Information: From Rumors to Fake News [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/158570 / Compendio
|
98 |
Inference and Learning with Planning ModelsAineto García, Diego 02 September 2022 (has links)
[ES] Inferencia y aprendizaje son los actos de razonar sobre evidencia recogida con el fin de alcanzar conclusiones lógicas sobre el proceso que la originó. En el contexto de un modelo de espacio de estados, inferencia y aprendizaje se refieren normalmente a explicar el comportamiento pasado de un agente, predecir sus acciones futuras, o identificar su modelo. En esta tesis, presentamos un marco para inferencia y aprendizaje en el modelo de espacio de estados subyacente al modelo de planificación clásica, y formulamos una paleta de problemas de inferencia y aprendizaje bajo este paraguas unificador. También desarrollamos métodos efectivos basados en planificación que nos permiten resolver estos problemas utilizando algoritmos de planificación genéricos del estado del arte. Mostraremos que un gran número de problemas de inferencia y aprendizaje claves que han sido tratados como desconectados se pueden formular de forma cohesiva y resolver siguiendo procedimientos homogéneos usando nuestro marco. Además, nuestro trabajo abre las puertas a nuevas aplicaciones para tecnología de planificación ya que resalta las características que hacen que el modelo de espacio de estados de planificación clásica sea diferente a los demás modelos. / [CA] Inferència i aprenentatge són els actes de raonar sobre evidència arreplegada a fi d'aconseguir conclusions lògiques sobre el procés que la va originar. En el context d'un model d'espai d'estats, inferència i aprenentatge es referixen normalment a explicar el comportament passat d'un agent, predir les seues accions futures, o identificar el seu model. En esta tesi, presentem un marc per a inferència i aprenentatge en el model d'espai d'estats subjacent al model de planificació clàssica, i formulem una paleta de problemes d'inferència i aprenentatge davall este paraigua unificador. També desenrotllem mètodes efectius basats en planificació que ens permeten resoldre estos problemes utilitzant algoritmes de planificació genèrics de l'estat de l'art. Mostrarem que un gran nombre de problemes d'inferència i aprenentatge claus que han sigut tractats com desconnectats es poden formular de forma cohesiva i resoldre seguint procediments homogenis usant el nostre marc. A més, el nostre treball obri les portes a noves aplicacions per a tecnologia de planificació ja que ressalta les característiques que fan que el model d'espai d'estats de planificació clàssica siga diferent dels altres models. / [EN] Inference and learning are the acts of reasoning about some collected evidence in order to reach a logical conclusion regarding the process that originated it. In the context of a state-space model, inference and learning are usually concerned with explaining an agent's past behaviour, predicting its future actions or identifying its model. In this thesis, we present a framework for inference and learning in the state-space model underlying the classical planning model, and formulate a palette of inference and learning problems under this unifying umbrella. We also develop effective planning-based approaches to solve these problems using off-the-shelf, state-of-the-art planning algorithms. We will show that several core inference and learning problems that previous research has treated as disconnected can be formulated in a cohesive way and solved following homogeneous procedures using the proposed framework. Further, our work opens the way for new applications of planning technology as it highlights the features that make the state-space model of classical planning different from other models. / The work developed in this doctoral thesis has been possible thanks to the FPU16/03184 fellowship that I have enjoyed for the duration of my PhD studies. I have also been supported by my advisors’ grants TIN2017-88476-C2-1-R, TIN2014-55637-C2-2-R-AR, and RYC-2015-18009. / Aineto García, D. (2022). Inference and Learning with Planning Models [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/185355
|
99 |
Una Aproximación de Ingeniería de Requisitos para Líneas de Productos Software Basada en una Estrategia de Desarrollo Dirigido por ModelosBlanes Domínguez, David 02 May 2016 (has links)
[EN] The Requirements Engineering (RE) activity is crucial in software engineering. A failure when defining the requirements of a system could increase the costs of the entire product development process. This problem is even more critical in the Software Product Lines (SPL) development, since the definition and specification of requirements must deal with a new dimension: requirements variability. Requirements variability is specified during the domain engineering process, in which variability points are defined so as to distinguish which requirements will be common, and which will be variable. These variability points are resolved during an application engineering activity called requirements derivation in order to obtain the requirements for a specific product.
Another paradigm that is widely applied in SPL Development is Model-Driven Software Development (MDSD). MDSD can reduce production costs by increasing software reuse. Despite this fact, the RE approaches for SPL found in literature have some weaknesses. Many of the current approaches represent the variability information in the requirements models, thus reducing the requirements' readability. Moreover, the RE approaches for SPL used during application engineering are normally limited to deriving the product requirements from the SPL requirements and do not indicate how to represent non-existent requirements in the SPL: the delta requirements. This has an undesirable effect on the flexibility of the approaches.
The aim of this thesis is to define and validate an RE approach in the context of SPL that will support the definition and specification of the requirements of an SPL, allowing them to be derived from the requirements of a product using the MDSD paradigm, and also supporting the definition and specification of delta requirements.
In this context, we have defined a process called FEDRE. During domain engineering, strategy definition and requirements specification obtained from model features are used. During application engineering, the derivation and validation of product requirements ensure that requirements meet customer needs. The necessary delta requirements could be specified, when they will be required, with the aim to prevent that product requirements are limited to a mere combination of LPS requirements.
Moreover, a technological approach based on a MDSD strategy was defined. During domain engineering, the variability of the SPL and the requirements variability are represented as multi-model views, and traceability relationships are established among them. During application engineering, the productconfiguration is defined and the requirements of the product to be built are derived using a strategy based on model transformations.
The process proposed in FEDRE has been validated using two quasi-experiments. In the first quasi-experiment, the SPL requirements were specified with the aim of validating the FEDRE domain engineering guidelines. According to the results, FeDRE was perceived as easy to use and useful as regards specifying the requirements for an SPL. In the second quasi-experiment, the requirements of a product were validated with the aim of verifying whether the customer needs where covered. In the case of their not being covered, the participants specified the delta requirements. Most of the subjects were able to correctly identify what needs were covered and which requirements had to be added as delta requirements.
This dissertation contributes to the field of development of SPL by providing a process and technology, along with an automated and generic approach with which to define and specify requirements in SPL environments. / [ES] La actividad de Ingeniería de Requisitos (IR) resulta crucial dentro de la ingeniería del software. Un fallo durante la definición de los requisitos de un sistema puede provocar sobrecostes durante todo el proceso de desarrollo. Este problema se acentúa aún más en el desarrollo de Líneas de Producto Software (LPS) debido a que la definición y especificación de los requisitos deben de tratar con una nueva dimensión: la variabilidad de los requisitos. Esta variabilidad de los requisitos de la LPS se específica durante el proceso de ingeniería del dominio, donde se definen los puntos de variabilidad que permiten diferenciar qué requisitos serán comunes y cuáles serán variables. Estos puntos de variabilidad se resuelven durante el proceso de ingeniería de la aplicación para obtener los requisitos de un producto específico, en la actividad llamada derivación de requisitos.
Otro paradigma ampliamente aplicado en las LPS es de Desarrollo de Software Dirigido por Modelos (DSDM). El DSDM puede reducir costes de producción, gracias al aumento de la reutilización de software. Sin embargo las aproximaciones actuales representan la información de la variabilidad de los requisitos exclusivamente en el mismo modelo de requisitos, perjudicando la legibilidad de los requisitos. Por otra parte durante la ingeniería de la aplicación, las aproximaciones de IR para LPS normalmente se limitan a derivar los requisitos del producto a partir de los requisitos de la LPS, pero no explicitaban cómo representar requisitos que no existían previamente en la LPS: los requisitos delta. Este hecho incide negativamente en la flexibilidad de las aproximaciones.
El objetivo de esta tesis doctoral es definir y validar una aproximación de IR en el contexto de LPS que soporte la definición y especificación de los requisitos de una LPS, permitiendo derivar a partir de ellos los requisitos de un producto haciendo uso del paradigma de DSDM, y soportando además la definición y especificación los requisitos delta.
En este contexto, se ha definido un proceso llamado FeDRE. Durante la ingeniería del dominio se utiliza una estrategia de definición y especificación de los requisitos a partir del modelo de características. Durante la ingeniería de la aplicación se cubre la derivación de los requisitos y la validación para comprobar que satisfacen las necesidades del cliente. En el caso de que fuera necesario se permiten modelar los requisitos delta, evitando que los requisitos del producto estén limitados a una mera combinación de requisitos de la LPS. Por otra parte se ha definido una aproximación tecnológica basada en una estrategia de DSDM. Durante la ingeniería del dominio se representan en un multimodelo las vistas de variabilidad de la LPS y la de requisitos, estableciendo relaciones de trazabilidad entre ellas. Durante la ingeniería de la aplicación se define una configuración del producto y se derivan, mediante una estrategia basada en transformaciones de modelos, los requisitos del producto a desarrollar.
El proceso propuesto en FeDRE se ha validado mediante dos cuasi-experimentos. El primer cuasi-experimento modelaba los requisitos de una LPS con el objetivo de validar las guías de la ingeniería del dominio de FeDRE. Los resultados mostraron que FeDRE fue percibido como fácil de usar y útil para especificar los requisitos de una LPS. En el segundo cuasi-experimento se validaron los requisitos de un producto con el objetivo de comprobar si cubrían las necesidades del cliente. En el caso de que no lo hicieran, los participantes especificaron los requisitos delta. La mayor parte de los sujetos fueron capaces de identificar correctamente qué necesidades estaba cubiertas y qué requisitos debían de añadirse como requisitos delta.
Esta tesis doctoral contribuye al campo de desarrollo de LPS proveyendo de un proceso y una aproximación tecnológica, automatizada y genérica para la definición y especificación de re / [CA] L'activitat d'Enginyeria de Requeriments (ER) és crucial dins de l'enginyeria del programari. Un error durant la definició dels requeriments d'un sistema pot provocar sobrecostos durant tot el procés de desenvolupament. Aquest problema s'accentua en el desenvolupament de Línies de Producte Software (LPS) a causa de que la definició i especificació dels requeriments han de treballar amb una nova dimensió: la variabilitat dels requeriments. Aquesta variabilitat dels requeriments de l'LPS s'especifica durant el procés d'enginyeria del domini, on es defineixen els punts de variabilitat que permeten diferenciar quins requeriments seran comuns i quins seran variables. Aquests punts de variabilitat es resolen durant el procés d'enginyeria de l'aplicació per obtenir els requeriments d'un producte específic, en l'activitat anomenada derivació de requeriments.
Un altre paradigma àmpliament aplicat a les LPS és el Desenvolupament de Programari Dirigit per Models (DSDM). El DSDM pot reduir costos de producció, gràcies a l'augment de la reutilització de programari. Malgrat això les aproximacions d'ER per a LPS presenten algunes debilitats. Moltes de les aproximacions actuals representen la informació de la variabilitat dels requeriments exclusivament en el mateix model de requeriments, perjudicant la llegibilitat dels requeriments. D'altra banda, durant l'enginyeria de l'aplicació, les aproximacions d'ER per a LPS normalment es limiten a derivar els requeriments del producte a partir dels de la LPS, però no expliciten com representar requeriments que no existien prèviament a l'LPS: els requeriments delta. Aquest fet incideix negativament en la flexibilitat de les aproximacions.
L'objectiu d'aquesta tesi doctoral és definir i validar una aproximació d'ER en el context de LPS que done suport a la definició i especificació dels requeriments d'una LPS, permetent derivar a partir d'ells els requeriments d'un producte fent ús del paradigma de DSDM i donant suport a més a la definició i especificació dels requeriments delta.
En aquest context, s'ha definit un procés anomenat FeDRE. Durant l'enginyeria del domini s'utilitza una estratègia de definició i especificació dels requeriments a partir del model de característiques. Durant l'enginyeria de l'aplicació es cobreix la derivació dels requeriments i la validació per comprovar que satisfan les necessitats del client. En el cas que fora necessari es permetrà modelar els requeriments delta, evitant que els requeriments del producte estiguen limitats a una mera combinació de requeriments de l'LPS. D'altra banda s'ha definit una aproximació tecnològica basada en una estratègia de DSDM. Durant l'enginyeria del domini es representen en un multimodel les vistes de variabilitat de l'LPS i la de requeriments, establint relacions de traçabilitat entre elles. Durant l'enginyeria de l'aplicació es defineix una configuració del producte i es deriven, mitjançant una estratègia basada en transformacions de models, els requeriments del producte a desenvolupar.
El procés proposat en FeDRE s'ha validat mitjançant dos quasi-experiments. El primer quasi-experiment modelava els requeriments d'una LPS amb l'objectiu de validar les guies de l'enginyeria del domini de FeDRE. Els resultats mostren que FeDRE va ser percebut com fàcil d'utilitzar i útil per especificar els requeriments d'una LPS. En el segon quasi-experiment es van validar els requeriments d'un producte amb l'objectiu de comprovar si cobrien les necessitats del client. En el cas que no ho feren, els participants especificaren els requeriments delta. La major part dels subjectes van ser capaços d'identificar correctament quines necessitats estaven cobertes i quins requeriments havien d'afegir com a requeriments delta.
Aquesta tesi doctoral contribueix al camp del desenvolupament de LPS proveint d'un procés i d'una aproximació tecnològica, automatitzada i genèrica per a la definició i especificació d / Blanes Domínguez, D. (2016). Una Aproximación de Ingeniería de Requisitos para Líneas de Productos Software Basada en una Estrategia de Desarrollo Dirigido por Modelos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63266
|
100 |
Towards a Universal Test of Social IntelligenceInsa Cabrera, Javier 17 June 2016 (has links)
[EN] Under the view of artificial intelligence, an intelligent agent is an autonomous entity which interacts in an environment through observations and actions, trying to achieve one or more goals with the aid of several signals called rewards. The creation of intelligent agents is proliferating during the last decades, and the evaluation of their intelligence is a fundamental issue for their understanding, construction and improvement.
Social intelligence is recently obtaining special attention in the creation of intelligent agents due to the current view of human intelligence as highly social. Social intelligence in natural and artificial systems is usually measured by the evaluation of associated traits or tasks that are deemed to represent some facets of social behaviour. The amalgamation of these traits or tasks is then used to configure an operative notion of social intelligence. However, this operative notion does not truly represent what social intelligence is and a definition following this principle will not be precise. Instead, in this thesis we investigate the evaluation of social intelligence in a more formal and general way, by actually considering the evaluee's interaction with other agents.
In this thesis we analyse the implications of evaluating social intelligence using a test that evaluates general intelligence. For this purpose, we include other agents into an initially single-agent environment to figure out the issues that appear when evaluating an agent in the context of other agents. From this analysis we obtain useful information for the evaluation of social intelligence.
From the lessons learned, we identify the components that should be considered in order to measure social intelligence, and we provide a formal and parametrised definition of social intelligence. This definition calculates an agent's social intelligence as its expected performance in a set of environments with a set of other agents arranged in teams and participating in line-ups, with rewards being re-understood appropriately. This is conceived as a tool to define social intelligence testbeds where we can generate several degrees of competitive and cooperative behaviours. We test this definition by experimentally analysing the influence of teams and agent line-ups for several multi-agent systems with variants of Q-learning agents.
However, not all testbeds are appropriate for the evaluation of social intelligence. To facilitate the analysis of a social intelligence testbed, we provide some formal property models about social intelligence in order to characterise the testbed and thus assess its suitability. Finally, we use the presented properties to characterise some social games and multi-agent environments, we make a comparison between them and discuss their strengths and weaknesses in order to evaluate social intelligence. / [ES] Bajo la visión de la inteligencia artificial, un agente inteligente es una entidad autónoma la cual interactúa en un entorno a través de observaciones y acciones, tratando de lograr uno o más objetivos con la ayuda de varias señales llamadas recompensas. La creación de agentes inteligentes está proliferando durante las últimas décadas, y la evaluación de su inteligencia es un asunto fundamental para su entendimiento, construcción y mejora.
Recientemente la inteligencia social está obteniendo especial atención en la creación de agentes inteligentes debido a la visión actual de la inteligencia humana como altamente social. Normalmente la inteligencia social en sistemas naturales y artificiales se mide mediante la evaluación de rasgos asociados o tareas que se consideran que representan algunas facetas del comportamiento social. La agrupación de estos rasgos o tareas se utiliza entonces para configurar una noción operacional de inteligencia social. Sin embargo, esta noción operacional no representa fielmente a la inteligencia social y no sería posible una definición siguiendo este principio. En su lugar, en esta tesis investigamos la evaluación de la inteligencia social de un modo más formal y general, considerando la interacción del agente a evaluar con otros agentes.
En esta tesis analizamos las implicaciones de evaluar la inteligencia social utilizando un test que evalúe la inteligencia general. Con este objetivo incluimos otros agentes en un entorno inicialmente diseñado para un único agente con el fin de averiguar qué cuestiones aparecen cuando evaluamos a un agente en un contexto con otros agentes. A partir de este análisis obtenemos información útil para la evaluación de la inteligencia social.
A partir de las lecciones aprendidas identificamos los componentes que deberían considerarse al medir la inteligencia social y proporcionamos una definición formal y parametrizada de esta inteligencia social. Esta definición calcula la inteligencia social de un agente como su rendimiento esperado en un conjunto de entornos y con un conjunto de otros agentes organizados en equipos y distribuidos en alineaciones, reinterpretando apropiadamente las recompensas. Esto se concibe como una herramienta para definir bancos de prueba de inteligencia social donde podamos generar varios grados de comportamientos competitivos y cooperativos. Probamos esta definición analizando experimentalmente la influencia de los equipos y las alineaciones de agentes en varios sistemas multiagente con variantes de agentes Q-learning.
Sin embargo, no todos los bancos de prueba son apropiados para la evaluación de la inteligencia social. Para facilitar el análisis de un banco de pruebas de inteligencia social, proporcionamos algunos modelos de propiedades formales sobre la inteligencia social con el objetivo de caracterizar el banco de pruebas y así valorar su idoneidad. Finalmente, usamos las propiedades presentadas para caracterizar algunos juegos sociales y entornos multiagente, hacemos una comparación entre ellos y discutimos sus puntos fuertes y débiles para ser usados en la evaluación de la inteligencia social. / [CA] Davall la visió de la intel·ligència artificial, un agent intel·ligent és una entitat autònoma la qual interactua en un entorn a través d'observacions i accions, tractant d'aconseguir un o més objectius amb l'ajuda de diverses senyals anomenades recompenses. La creació d'agents intel·ligents està proliferant durant les últimes dècades, i l'avaluació de la seua intel·ligència és un assumpte fonamental per al seu enteniment, construcció i millora.
Recentment la intel·ligència social està obtenint especial atenció en la creació d'agents intel·ligents a causa de la visió actual de la intel·ligència humana com altament social. Normalment la intel·ligència social en sistemes naturals i artificials es mesura per mitjà de l'avaluació de trets associats o tasques que es consideren que representen algunes facetes del comportament social. L'agrupació d'aquests trets o tasques s'utilitza llavors per a configurar una noció operacional d'intel·ligència social. No obstant això, aquesta noció operacional no representa fidelment a la intel·ligència social i no seria possible una definició seguint aquest principi. En el seu lloc, en aquesta tesi investiguem l'avaluació de la intel·ligència social d'una manera més formal i general, considerant la interacció de l'agent a avaluar amb altres agents.
En aquesta tesi analitzem les implicacions d'avaluar la intel·ligència social utilitzant un test que avalue la intel·ligència general. Amb aquest objectiu incloem altres agents en un entorn inicialment dissenyat per a un únic agent amb la finalitat d'esbrinar quines qüestions apareixen quan avaluem un agent en un context amb altres agents. A partir d'aquesta anàlisi obtenim informació útil per a l'avaluació de la intel·ligència social.
A partir de les lliçons apreses identifiquem els components que haurien de considerar-se al mesurar la intel·ligència social i proporcionem una definició formal i parametrizada d'aquesta intel·ligència social. Aquesta definició calcula la intel·ligència social d'un agent com el seu rendiment esperat en un conjunt d'entorns i amb un conjunt d'altres agents organitzats en equips i distribuïts en alineacions, reinterpretant apropiadament les recompenses. Açò es concep com una ferramenta per a definir bancs de prova d'intel·ligència social on podem generar diversos graus de comportaments competitius i cooperatius. Provem aquesta definició analitzant experimentalment la influència dels equips i les alineacions d'agents en diversos sistemes multiagent amb variants d'agents Q-learning.
No obstant això, no tots els bancs de prova són apropiats per a l'avaluació de la intel·ligència social. Per a facilitar l'anàlisi d'un banc de proves d'intel·ligència social, proporcionem alguns models de propietats formals sobre la intel·ligència social amb l'objectiu de caracteritzar el banc de proves i així valorar la seua idoneïtat. Finalment, usem les propietats presentades per a caracteritzar alguns jocs socials i entorns multiagent, fem una comparació entre ells i discutim els seus punts forts i dèbils per a ser usats en l'avaluació de la intel·ligència social. / Insa Cabrera, J. (2016). Towards a Universal Test of Social Intelligence [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/66080
|
Page generated in 0.0779 seconds