• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 219
  • 197
  • 4
  • 2
  • Tagged with
  • 419
  • 359
  • 358
  • 232
  • 117
  • 53
  • 50
  • 45
  • 43
  • 42
  • 41
  • 40
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Optimization and Robustness in Planning and Scheduling Problems. Application to Container Terminals

Rodríguez Molins, Mario 31 March 2015 (has links)
Despite the continuous evolution in computers and information technology, real-world combinatorial optimization problems are NP-problems, in particular in the domain of planning and scheduling. Thus, although exact techniques from the Operations Research (OR) field, such as Linear Programming, could be applied to solve optimization problems, they are difficult to apply in real-world scenarios since they usually require too much computational time, i.e: an optimized solution is required at an affordable computational time. Furthermore, decision makers often face different and typically opposing goals, then resulting multi-objective optimization problems. Therefore, approximate techniques from the Artificial Intelligence (AI) field are commonly used to solve the real world problems. The AI techniques provide richer and more flexible representations of real-world (Gomes 2000), and they are widely used to solve these type of problems. AI heuristic techniques do not guarantee the optimal solution, but they provide near-optimal solutions in a reasonable time. These techniques are divided into two broad classes of algorithms: constructive and local search methods (Aarts and Lenstra 2003). They can guide their search processes by means of heuristics or metaheuristics depending on how they escape from local optima (Blum and Roli 2003). Regarding multi-objective optimization problems, the use of AI techniques becomes paramount due to their complexity (Coello Coello 2006). Nowadays, the point of view for planning and scheduling tasks has changed. Due to the fact that real world is uncertain, imprecise and non-deterministic, there might be unknown information, breakdowns, incidences or changes, which become the initial plans or schedules invalid. Thus, there is a new trend to cope these aspects in the optimization techniques, and to seek robust solutions (schedules) (Lambrechts, Demeulemeester, and Herroelen 2008). In this way, these optimization problems become harder since a new objective function (robustness measure) must be taken into account during the solution search. Therefore, the robustness concept is being studied and a general robustness measure has been developed for any scheduling problem (such as Job Shop Problem, Open Shop Problem, Railway Scheduling or Vehicle Routing Problem). To this end, in this thesis, some techniques have been developed to improve the search of optimized and robust solutions in planning and scheduling problems. These techniques offer assistance to decision makers to help in planning and scheduling tasks, determine the consequences of changes, provide support in the resolution of incidents, provide alternative plans, etc. As a case study to evaluate the behaviour of the techniques developed, this thesis focuses on problems related to container terminals. Container terminals generally serve as a transshipment zone between ships and land vehicles (trains or trucks). In (Henesey 2006a), it is shown how this transshipment market has grown rapidly. Container terminals are open systems with three distinguishable areas: the berth area, the storage yard, and the terminal receipt and delivery gate area. Each one presents different planning and scheduling problems to be optimized (Stahlbock and Voß 2008). For example, berth allocation, quay crane assignment, stowage planning, and quay crane scheduling must be managed in the berthing area; the container stacking problem, yard crane scheduling, and horizontal transport operations must be carried out in the yard area; and the hinterland operations must be solved in the landside area. Furthermore, dynamism is also present in container terminals. The tasks of the container terminals take place in an environment susceptible of breakdowns or incidences. For instance, a Quay Crane engine stopped working and needs to be revised, delaying this task one or two hours. Thereby, the robustness concept can be included in the scheduling techniques to take into consideration some incidences and return a set of robust schedules. In this thesis, we have developed a new domain-dependent planner to obtain more effi- cient solutions in the generic problem of reshuffles of containers. Planning heuristics and optimization criteria developed have been evaluated on realistic problems and they are applicable to the general problem of reshuffling in blocks world scenarios. Additionally, we have developed a scheduling model, using constructive metaheuristic techniques on a complex problem that combines sequences of scenarios with different types of resources (Berth Allocation, Quay Crane Assignment, and Container Stacking problems). These problems are usually solved separately and their integration allows more optimized solutions. Moreover, in order to address the impact and changes that arise in dynamic real-world environments, a robustness model has been developed for scheduling tasks. This model has been applied to metaheuristic schemes, which are based on genetic algorithms. The extension of such schemes, incorporating the robustness model developed, allows us to evaluate and obtain more robust solutions. This approach, combined with the classical optimality criterion in scheduling problems, allows us to obtain, in an efficient in way, optimized solution able to withstand a greater degree of incidents that occur in dynamic scenarios. Thus, a proactive approach is applied to the problem that arises with the presence of incidences and changes that occur in typical scheduling problems of a dynamic real world. / Rodríguez Molins, M. (2015). Optimization and Robustness in Planning and Scheduling Problems. Application to Container Terminals [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48545 / TESIS
142

Desclasificación basada en tipos en DART: Implementación y elaboración de herramientas de inferencia

Meneses Cortés, Matías Ignacio January 2018 (has links)
Ingeniero Civil en Computación / La protección de la confidencialidad de la información manipulada por los programas computacionales es abordada a nivel del código fuente con distintas técnicas. Una de ellas es tipado de seguridad para el control de flujo, que controla el nivel de seguridad donde fluye la información agregando anotaciones a las variables tipadas. La propiedad de seguridad fundamental de control de flujo es conocida como no-interferencia (noninterference), que establece que un observador público no puede obtener conocimiento desde datos confidenciales. A pesar de ser una propiedad muy atractiva, los sistemas reales la vulneran fácilmente, y necesitan mecanismos para desclasificar selectivamente alguna información. En esta dirección, Cruz et al. proponen una forma de desclasificación basada en tipos (type-based declassification), en donde se utilizan las relaciones de subtipos del lenguaje para expresar las políticas de desclasificación de los datos que maneja el programa, en una forma simple y expresiva. A pesar de que el fundamento teórico de la desclasificación basada en tipos está bien descrito, carece de una implementación que permita comprobar la utilidad práctica de la propuesta. En este trabajo, se implementa el análisis de la desclasificación basada en tipos para un subconjunto del lenguaje Dart, un lenguaje de programación de propósito general orientado a objetos desarrollado por Google. Además, se implementó un sistema de inferencia de políticas de desclasificación y una extensión para ambientes de desarrollo, con el objetivo de facilitar el trabajo al programador y mejorar su experiencia.
143

Autómatas finitos: irreducibilidad e Inferencia

Vázquez-De-Parga Andrade, Manuel 20 June 2008 (has links)
En este trabajo abordamos dos problemas: El de la reducción de autómatas finitos y el de la inferencia de los lenguajes regulares y estudiamos las relaciones entre ellos. Tras la introducción, en el segundo capítulo se repasan los conceptos y proposiciones básicos de teoría de lenguajes y se establece la notación utilizada a lo largo del trabajo. Lo mismo, pero en lo que concierne a la inferencia gramatical, se realiza en el tercer capítulo, donde se describe además el actual estado del arte. En el cuarto capítulo se discuten los problemas de minimalización y reducción de autómatas finitos y se demuestra el primero de los resultados centrales de esta tesis, la existencia de una cota en el tamaño de los autómatas finitos irreducibles que aceptan un determinado lenguaje regular. Se introducen además los conceptos de irreducibilidad y concisión relativas. En el capítulo quinto se discuten y amplían los conceptos de red de autómatas cocientes y completitud estructural y se introduce el concepto de universalidad estructural. Como resultado de este estudio se obtiene el segundo de los resultados centrales de este trabajo, el cual establece que cualquier algoritmo de fusión de estados que obtenga como resultado un autómata finito irreducible compatible con los datos de entrada infiere en el límite la clase de los lenguajes regulares siempre y cuando se aplique en cierta manera, por lo demás poco restrictiva. En el capítulo sexto se introduce el concepto de subautómata asociado a una palabra en un lenguaje y a partir de él se describe una nueva familia de algoritmos de inferencia de la clase de los lenguajes regulares representados mediante autómatas finitos, algoritmos que tienen la particularidad de que su complejidad temporal es función básicamente de la longitud de las palabras de la muestra de entrada, mientras que son prácticamente lineales respecto al número de las mismas. En el capítulo séptimo se describen algunos algorítmos de las familias menci / Vázquez-De-Parga Andrade, M. (2008). Autómatas finitos: irreducibilidad e Inferencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2321 / Palancia
144

Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizaciones

Argente Villaplana, Estefanía 03 July 2008 (has links)
Las organizaciones resultan ser un medio efectivo para la coordinación de las actividades, no sólo de los humanos sino también de los agentes. Precisamente, en los últimos años el concepto de organización ha adquirido gran relevancia en el área de los sistemas multiagente, al facilitar el análisis y diseño de mecanismos de coordinación y colaboración en sistemas abiertos. Dado que la Teoría de Organización aborda las propiedades de las organizaciones humanas y sus aspectos de diseño, en esta tesis se revisa dicha Teoría para así adoptar de ella ciertos mecanismos y guías que faciliten el diseño de sistemas multiagente complejos basados en organizaciones. Para ello, se han analizado cuáles son los factores principales que determinan las características de las organizaciones y su estructura y que deben ser tenidos cuenta en el diseño de la organización del sistema. Asimismo, se ha realizado un estudio del estado del arte sobre el enfoque dado al concepto de organización, tanto en las principales metodologías de sistemas multiagente como en las plataformas de agente. De este modo, se han determinado sus carencias y necesidades con respecto a la gestión y manejo de las organizaciones. En base a estos estudios, se ha propuesto un Modelo de Organización que permite describir los principales aspectos de las organizaciones: estructura, funcionalidad, normalización, dinamicidad y entorno. Este modelo constituye la primera aportación de esta tesis. Consta de un conjunto de meta-modelos que extienden las propuestas de INGENIAS y ANEMONA, empleando fundamentalmente los conceptos de unidad organizativa, servicio, norma y entorno. Además se ha elaborado un conjunto de patrones de diseño, con los que facilitar el modelado de la estructura de la organización. El Modelo de Organización sirve de apoyo, junto al análisis de la Teoría de Organización, para la adaptación del proceso de diseño de las organizaciones al área de los sistemas multiagente. De esta forma, como segunda y pr / Argente Villaplana, E. (2008). Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizaciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2481 / Palancia
145

Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automática

González Mollá, Jorge 22 October 2009 (has links)
Traducción automática es un área de lingüística computacional que investiga el uso de software para traducir texto o voz en lenguaje natural hacia su representación en un idioma destino, también mediante lenguaje natural. En las últimas décadas ha habido un fuerte impulso sobre la utilización de técnicas estadísticas para el desarrollo de sistemas de traducción automática. Para la aplicación de estos métodos sobre un par de lenguas en concreto, se requiere la disponibilidad de un corpus paralelo para dicho par de idiomas. El atractivo de estas técnicas radica en que el desarrollo de un sistema se realiza sin necesidad de trabajo experto por parte de especialistas en lingüística. Los modelos de estados finitos llevan bastante tiempo empleándose con éxito en múltiples y variadas disciplinas dentro de la investigación científica aplicada al lenguaje natural, incluyendo su uso en traducción automática. Los modelos de estados finitos presentan una serie de ventajas con respecto a otros modelos estadísticos, como su sencilla integración en entornos de reconocimiento de voz, su aplicación en sistemas de traducción asistida, o su capacidad para procesar la información sin necesidad de que esté completa, por medio de una arquitectura basada en las populares cadenas de montaje. El objetivo de la investigación consiste en el estudio y la explotación de las técnicas de traducción automática basadas en modelos de estados finitos. El trabajo presentado en esta tesis es un análisis detallado de la metodología GIATI para el aprendizaje de transductores estocásticos de estados finitos para su aplicación eficaz y eficiente como modelos en traducción automática, permitiendo su uso sobre tareas de traducción con un gran volumen de datos. / González Mollá, J. (2009). Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automática [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6289 / Palancia
146

Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebrales

Ortega Pérez, Mario 14 January 2010 (has links)
La neurocirugía es una de las especialidades más exigentes en cuanto a precisión en el procedimiento quirúrgico. Los neurocirujanos para realizar dichos procedimientos quirúrgicos pueden utilizar atlas cerebrales. Un atlas cerebral consta de imágenes del cerebro en las que expertos han identificado estructuras anatómicas y/o funcionales. Ya que no existen dos cerebros que sean iguales, es necesario adaptar el atlas cerebral a la anatomía específica del paciente. Mediante el registro con atlas cerebrales los expertos pueden identificar estructuras que difícilmente son visibles en la mayoría de modalidades de imagen médica. En esta tesis se presenta un nuevo método de registro entre atlas cerebrales e imágenes de Resonancia Magnética. Las hipótesis de trabajo son las siguientes: 1.Un atlas cerebral deformable que utilice funciones de base radial con soporte compacto y Modelos Activos de Apariencia permitirá localizar estructuras cerebrales en imágenes de RM con un error de 1 a 2 mm. Error del mismo orden que los actuales procedimientos quirúrgicos. 2. Las funciones de base radial con soporte compacto presentan ventajas frente a las funciones de base radial como la Thin Plate Spline en el problema de registro de imágenes. Dichas ventajas son: localidad de la transformación, control sobre la naturaleza de la transformación, menor coste computacional, y mayor estabilidad numérica. Para comprobar las hipótesis, se ha desarrollado: Un nuevo método de registro no rígido de atlas cerebrales en imágenes de RM basado en el uso de diferentes funciones de base radial con soporte compacto, dentro de las cuales, la función de base radial con soporte compacto de Wu se ha utilizado por primera vez en el campo de registro de imágenes médicas. Un método de segmentación del córtex y ventrículos en imágenes de RM basado en el atlas de Talairach-Tournoux junto con Modelos Activos de Apariencia. Un algoritmo que permite la reconstrucción tridimensional del atlas de Talairach / Ortega Pérez, M. (2009). Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebrales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6865 / Palancia
147

Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitados

CERVANTES POSADA, Mª MARGARITA 23 April 2010 (has links)
Los problemas de optimización y satisfacción de restricciones son extraordinariamente complejos y variados. Al mismo tiempo, son problemas de alto interés, tanto en el aspecto científico-técnico como en el aplicado. Por ello, poder disponer de soluciones algorítmicas eficientes y flexibles supone un alto valor añadido en muy diferentes entornos de aplicación. Entre los problemas más típicos se encuentran los problemas de scheduling o asignación temporal de recursos. Esta clase de problemas implican la ejecución de acciones que requieren recursos cuya disponibilidad está limitada y por tanto deben asignarse de modo eficiente Dentro de la amplia variedad de los problemas de scheduling, destaca el problema de programación de proyectos con recursos limitados. Dicho problema considera un conjunto de actividades relacionadas entre si mediante relaciones de precedencia, un conjunto de recursos con un límite en su disponibilidad y un conjunto de medidas de desempeño. El objetivo es obtener la mejor manera de asignar dichos recursos a las actividades, de tal manera que se optimice la medida de desempeño. Se han publicado muchos y diversos trabajos en relación al problema estándar de programación de proyectos con recursos limitados(RCPSP), el cual incluye un único modo de ejecución de las actividades que le conforman, abordando su solución con métodos exactos y métodos aproximados. En cuanto al problema que considera la posibilidad de que cada actividad se ejecute en uno de varios posibles modos (MRCPSP), su estudio no es tan amplio como el del caso anterior. El objetivo de esta tesis es proponer, diseñar y desarrollar nuevos métodos metaheurísticos para obtener una asignación optimizada de recursos en este complejo problema de scheduling. Para el caso del RCPSP, hemos seguido un proceso de refinamiento para la propuesta de una heurística y un algoritmo genético utilizando de manera selectiva el método de mejora de programaciones factibles FBI. / Cervantes Posada, MM. (2010). Nuevos métodos meta heurísticos para la asignación eficiente, optimizada y robusta de recursos limitados [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7582 / Palancia
148

Automating the development of Physical Mobile Workflows. A Model Driven Engineering approach

Giner Blasco, Pau 17 May 2010 (has links)
La visión de la "Internet de las Cosas", hace énfasis en la integración entre elementos del mundo real y los Sistemas de Información. Gracias a tecnologías de Identificación Automática (Auto-ID) cómo RFID, los sistemas pueden percibir objetos del mundo físico. Cuando éstos participan de manera activa en los procesos de negocio, se evita el uso de los seres humanos como transportadores de información. Por tanto, el número de errores se reduce y la eficiencia de los procesos aumenta. Aunque actualmente ya es posible el desarrollo de estos sistemas, la heterogeneidad tecnológica en Auto-ID y los requisitos cambiantes de los procesos de negocio dificultan su construcción, mantenimiento y evolución. Por lo tanto, es necesaria la definición de soluciones que afronten la construcción de estos sistemas mediante métodos sólidos de desarrollo para garantizar la calidad final del producto. Partiendo de las bases de la Ingeniería Dirigida por Modelos (MDE), esta tesis presenta un proceso de desarrollo para la construcción de este tipo de sistemas. Este proceso cubre desde la especificación del sistema hasta su implementación, centrándose en los requisitos particulares del enlace entre los mundos físico y virtual. Para la especificación de los sistemas se ha definido un Lenguaje de modelado adaptado a los requisitos de la "Internet de las Cosas". A partir de esta especificación se puede obtener una solución software de manera sistemática. Como validación de la propuesta, ésta se ha aplicado en la práctica con usuarios finales. Pese a que el proceso de desarrollo no ofrece una automatización completa, las guías ofrecidas y la formalización de los conceptos implicados ha demostrado ser útil a la hora de elevar el nivel de abstracción en el desarrollo, evitando el esfuerzo de enfrentarse a detalles tecnológicos. / Giner Blasco, P. (2010). Automating the development of Physical Mobile Workflows. A Model Driven Engineering approach [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8272 / Palancia
149

Detección de reutilización de código fuente monolingüe y translingüe

Flores Sáez, Enrique 01 July 2016 (has links)
[EN] Automatic detection of source code re-use consists in determining whether a (piece of) code has been created considering another source.Plagiarism and forks in software projects are two examples of types of re-use in source codes. With the advent of the Web and electronic media it has grown enormously the ease of access to source code to be read, copied or modified. This represents a great temptation for developers with the aim of reducing (time or economic) costs, decide to use previously debugged and tested source codes. This phenomenon has caused experts in programming languages to study the problem. The large amount of resources available on the Web makes impossible a manual analysis of suspect source codes of being re-used. Therefore, there is an urgent need to develop automated tools that can accurately detect re-used cases. Automatic re-use detection tools based on natural language processing techniques and information retrieval are able to perform many comparisons of source codes efficiently. In this thesis we propose a set of models that are suitable at both monolingual or crosslingual level. That is, two source codes written in the same, or different, programming language can be compared. Therefore, it allows us to make comparisons between almost any pair of programming languages unlike the proposals of the state of the art. First, we studied the most common changes made by programmers to avoid the detection. To address these changes and improve the detection, we have proposed a set of pre-processing. The models have been evaluated and analysed in real academic settings as well as large-scale scenarios. Finally, our best proposals were compared with some of the state of the art proposals within the same evaluation framework. These tests of our models were performed millions of monolingual and crosslingual comparisons using several techniques that were effective when applied to detection re-use in texts written in natural language. Most of the resources developed in the framework of this thesis are freely available to the scientific community. Using part of these resources, we have set up two evaluation scenarios (monolingual and crosslingual) that are a reference for current and future research works can adjust and compare their proposals. / [ES] La detección automática de reutilización en códigos fuente consiste en determinar si un (fragmento de) código ha sido creado considerando otro como fuente. El plagio y las ramificaciones en proyectos software son dos ejemplos de tipos de reutilización en códigos fuente. Con la llegada de la Web y los medios electrónicos ha crecido enormemente la facilidad de acceso a códigos fuente para ser leídos, copiados o modificados. Esto supone una gran tentación para programadores que, con propósitos de reducir costes (temporales o económicos), deciden utilizar códigos fuente previamente depurados y probados. Este fenómeno ha causado que expertos en lenguajes de programación estudien el problema. La gran cantidad de recursos disponibles en la Web hace imposible un análisis manual de códigos fuente sospechosos de haber sido reutilizados. Por ello, existe una necesidad urgente de desarrollar herramientas automáticas capaces de detectar con precisión los casos de reutilización. Basándose en técnicas del procesamiento del lenguaje natural y recuperación de información, las herramientas de detección automáticas de reutilización son capaces de realizar multitud de comparaciones de códigos fuente de forma eficiente. En esta tesis proponemos un conjunto de modelos que pueden aplicarse indistintamente a nivel monolingüe o translingüe. Es decir, se pueden comparar dos códigos que están escritos en el mismo, o en distinto, lenguaje de programación. Por lo tanto, nos permite realizar comparaciones entre casi cualquier par de lenguajes de programación a diferencia de las propuestas del estado de la cuestión. %que solo se aplican a un grupo muy reducido de lenguajes de programación. Inicialmente, hemos estudiado las modificaciones más comunes realizadas por los programadores para evitar ser detectados. Para tratar estas modificaciones y mejorar la detección, hemos propuesto una serie de preprocesos. Se han evaluado y analizado los modelos tanto en un escenario académico real como en un escenario de detección a gran escala. Finalmente, nuestras mejores propuestas se han comparado con otras propuestas del estado de la cuestión dentro de un mismo marco de evaluación. Estas pruebas de nuestros modelos se han realizado mediante millones de comparaciones tanto a nivel monolingüe como translingüe empleando diversas técnicas que fueron efectivas al aplicarlas sobre textos escritos en lenguaje natural. La mayor parte de los recursos desarrollados en el marco de esta tesis están a libre disposición de la comunidad científica. Utilizando parte de estos recursos, hemos configurado dos escenarios (monolingües y translingües) de evaluación que son un referente para que actuales y futuros trabajos de investigación puedan ajustar y comparar sus propuestas. / [CAT] La detecció automàtica de reutilització en codis consisteix a determinar si un (fragment de) codi ha sigut creat considerant un altre com a font. El plagi i les bifurcacions en projectes de programari són dos exemples de tipus de reutilització en codis font. Amb l'arribada de la Web i els mitjans electrònics ha crescut enormement la facilitat d'accés a codis font per a ser llegits, copiats o modificats. Açò suposa una gran temptació per a programadors que amb propòsits de reduir costos (temporals o econòmics) decideixen utilitzar codis font prèviament depurats i provats. Aquest fenomen ha causat que experts en llenguatges de programació estudien aquest problema. La gran quantitat de recursos en la Web fa impossible una anàlisi manual de codis font sospitosos d'haver sigut reutilitzats. Es per aquest motiu que existeix una necessitat urgent de desenvolupar eines automàtiques capaces de detectar amb precisió els casos de reutilització. Basant-se en tecnologies de teoria de llenguatges i recuperació d'informació, les eines de detecció automàtiques de reutilització són capaces de realitzar multitud de comparacions de codis font de forma eficient. En aquesta tesi proposem un conjunt de models que poden aplicar-se indistintament a nivell monolingüe o translingüe. És a dir, es poden comparar dos codis que estan escrits en el mateix, o diferent, llenguatge de programació. Per tant, ens permet realitzar comparacions entre quasi qualsevol parell de llenguatges de programació a diferència de les propostes de l'estat de la qüestió. La nostra experimentació ha seguit un cert paral$\cdot$lelisme entre la detecció de reutilització monolingüe i la translingüe. Inicialment, hem estudiat les modificacions més comunes realitzades pels programadors per evitar ser detectats. Per tractar aquestes modificacions i millorar la detecció, hem proposat una sèrie de preprocesos. S'han avaluat i analitzat els models tant en un escenari acadèmic real com en un escenari de detecció a gran escala. Finalment, hem comparat les nostres millors propostes amb altres propostes de l'estat de la qüestió dins d'un mateix marc d'avaluació. Aquestes proves i comparacions dels nostres models s'han realitzat mitjançant milions de comparacions tant a nivell monolingüe com translingüe emprant diverses tècniques que van ser efectives en aplicar-se sobre textos escrits en lenguatge natural. La major part dels recursos creats en el marc d'aquesta tesi han estat de creació pròpia i estan a lliure disposició de la comunitat científica. Utilitzant part d'aquests recursos, hem proposat dos escenaris (monolingüe i translingüe) d'avaluació que són un referent perquè actuals i futurs treballs d'investigació puguin ajustar i comparar les seves propostes. / Flores Sáez, E. (2016). Detección de reutilización de código fuente monolingüe y translingüe [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/66868 / TESIS
150

Enhancing Privacy Management on Social Network Services

López Fogués, Ricard 31 July 2017 (has links)
In the recent years, social network services, such as Facebook or LinkedIn, have experienced an exponential growth. People enjoy their functionalities, such as sharing photos, finding friends, looking for jobs, and in general, they appreciate the social benefits that social networks provide. However, as using social network has become routine for many people, privacy breaches that may occur in social network services have increased users' concerns. For example, it is easy to find news about people being fired because of something they shared on a social network. To enable people define their privacy settings, service providers employ simple access controls which usually rely exclusively on lists or circles of friends. Although these access controls are easy to configure by average users, research literature points out that they are lacking elements, such as tie strength, that play a key role when users decide what to share and with whom. Additionally, despite the simplicity of current access controls, research on privacy on social media reports that people still struggle to effectively control how their information flows on these services. To provide users with a more robust privacy framework, related literature proposes a new paradigm for access controls based on relationships. In contrast to traditional access controls where permissions are granted based on users and their roles, this paradigm employs social elements such as the relationship between the information owner and potential viewers (e.g., only my siblings can see this photo). Access controls that follow this paradigm provide users with mechanisms for disclosure control that represent more naturally how humans reason about privacy. Furthermore, these access controls can deal with specific issues that social network services present. Specifically, users often share information that concerns many people, especially other members of the social network. In such situations, two or more people can have conflicting privacy preferences; thus, an appropriate sharing policy may not be apparent. These situations are usually identified as multiuser privacy scenarios. Since relationship based access controls are complex for the average social network user, service providers have not adopted them. Therefore, to enable the implementation of such access controls in current social networks, tools and mechanisms that facilitate their use must be provided. To that aim, this thesis makes five contributions: (1) a review of related research on privacy management on social networks that identifies pressing challenges in the field, (2) BFF, a tool for eliciting automatically tie strength and user communities, (3) a new access control that employs communities, individual identifiers, tie strength, and content tags, (4) a novel model for representing and reasoning about multiuser privacy scenarios, employing three types of features: contextual factors, user preferences, and user arguments; and, (5) Muppet, a tool that recommends sharing policies in multiuser privacy scenarios. / En los últimos años, los servicios de redes sociales, como Facebook o LinkedIn, han experimentado un crecimiento exponencial. Los usuarios valoran positivamente sus muchas funcionalidades tales como compartir fotos, o búsqueda de amigos y trabajo. En general, los usuarios aprecian los beneficios que las redes sociales les aportan. Sin embargo, mientras el uso de redes sociales se ha convertido en rutina para mucha gente, brechas de privacidad que pueden ocurrir en redes sociales han aumentado los recelos de los usuarios. Por ejemplo, es sencillo encontrar en las noticias casos sobre personas que han perdido su empleo debido a algo que compartieron en una red social. Para facilitar la definición de los ajustes de privacidad, los proveedores de servicios emplean controles de acceso sencillos que normalmente se basan, de forma exclusiva, en listas o círculos de amigos. Aunque estos controles de acceso son fáciles de configurar por un usuario medio, investigaciones recientes indican que éstos carecen de elementos tales como la intensidad de los vínculos personales, que juegan un papel clave en cómo los usuarios deciden qué compartir y con quién. Además, a pesar de la simplicidad de los controles de acceso, investigaciones sobre privacidad en redes sociales señalan que los usuarios han de esforzarse para controlar de forma efectiva como su información fluye en estos servicios. Para ofrecer a los usuarios un marco de privacidad más robusto, trabajos recientes proponen un nuevo paradigma para controles de acceso basado en relaciones. A diferencia de los controles de acceso tradicionales donde los permisos se otorgan en base a usuarios y sus roles, este paradigma emplea elementos sociales como la relación entre el propietario de la información y su audiencia potencial (por ejemplo, sólo mis hermanos pueden ver la foto). Los controles de acceso que siguen este paradigma ofrecen a los usuarios mecanismos para el control de la privacidad que representan de una forma más natural como los humanos razonan sobre cuestiones de privacidad. Además, estos controles de acceso pueden lidiar con problemáticas específicas que presentan las redes sociales. Específicamente, los usuarios comparten de forma habitual información que atañe a muchas personas, especialmente a otros miembros de la red social. En tales situaciones, dos o más personas pueden tener preferencias de privacidad que entran en conflicto. Cuando esto ocurre, no hay una configuración correcta de privacidad que sea evidente. Estas situaciones son normalmente identificadas como escenarios de privacidad multiusuario. Dado que los controles de acceso basados en relaciones son complejos para el usuario promedio de redes sociales, los proveedores de servicios no los han adoptado. Por lo tanto, para permitir la implementación de tales controles de acceso en redes sociales actuales, es necesario que se ofrezcan herramientas y mecanismos que faciliten su uso. En este sentido, esta tesis presenta cinco contribuciones: (1) una revisión del estado del arte en manejo de privacidad en redes sociales que permite identificar los retos más importantes en el campo, (2) BFF, una herramienta para obtener automáticamente la intensidad de los vínculos personales y las comunidades de usuarios, (3) un nuevo control de acceso que emplea comunidades, identificadores individuales, la intensidad de los vínculos personales, y etiquetas de contenido, (4) un modelo novedoso para representar y razonar sobre escenarios de privacidad multiusario que emplea tres tipos de características: factores contextuales, preferencias de usuario, y argumentos de usuario; y, (5) Muppet, una herramienta que recomienda configuraciones de privacidad en escenarios de privacidad multiusuario. / En els darrers anys, els servicis de xarxes socials, com Facebook o LinkedIn, han experimentat un creixement exponencial. Els usuaris valoren positivament les seues variades funcionalitats com la compartició de fotos o la cerca d'amics i treball. En general, els usuaris aprecien els beneficis que les xarxes socials els aporten. No obstant això, mentre l'ús de les xarxes socials s'ha convertit en rutina per a molta gent, bretxes de privacitat que poden ocórrer en xarxes socials han augmentat els recels dels usuaris. Per exemple, és senzill trobar notícies sobre persones que han perdut el seu treball per alguna cosa que compartiren a una xarxa social. Per facilitar la definició dels ajustos de privacitat, els proveïdors de servicis empren controls d'accés senzills que normalment es basen, de forma exclusiva, en llistes o cercles d'amics. Encara que aquests controls d'accés són fàcils d'emprar per a un usuari mitjà, investigacions recents indiquen que aquests manquen elements com la força dels vincles personals, que juguen un paper clau en com els usuaris decideixen què compartir i amb qui. A més a més, malgrat la simplicitat dels controls d'accés, investigacions sobre privacitat en xarxes socials revelen que els usuaris han d'esforçar-se per a controlar de forma efectiva com fluix la seua informació en aquests servicis. Per a oferir als usuaris un marc de privacitat més robust, treballs recents proposen un nou paradigma per a controls d'accés basat en relacions. A diferència dels controls d'accés tradicionals on els permisos s'atorguen segons usuaris i els seus rols, aquest paradigma empra elements socials com la relació entre el propietari de la informació i la seua audiència potencial (per exemple, sols els meus germans poden veure aquesta foto). Els controls d'accés que segueixen aquest paradigma ofereixen als usuaris mecanismes per al control de la privacitat que representen d'una forma més natural com els humans raonen sobre la privacitat. A més a més, aquests controls d'accés poden resoldre problemàtiques específiques que presenten les xarxes socials. Específicament, els usuaris comparteixen de forma habitual informació que concerneix moltes persones, especialment a altres membres de la xarxa social. En aquestes situacions, dues o més persones poden tindre preferències de privacitat que entren en conflicte. Quan açò ocorre, no hi ha una configuració de privacitat correcta que siga evident. Aquestes situacions són normalment identificades com escenaris de privacitat multiusari. Donat que els controls d'accés basats en relacions són complexos per a l'usuari mitjà de xarxes socials, els proveïdors de servicis no els han adoptat. Per tant, per a permetre la implementació d'aquests controls d'accés en xarxes socials actuals, és necessari oferir ferramentes i mecanismes que faciliten el seu ús. En aquest sentit, aquesta tesi presenta cinc contribucions: (1) una revisió de l'estat de l'art en maneig de privacitat en xarxes socials que permet identificar els reptes més importants en el camp, (2) BFF, una ferramenta per a obtenir automàticament la força dels vincles personals i les comunitats d'usuaris, (3) un nou control d'accés que empra comunitats, identificadors individuals, força dels vincles personals, i etiquetes de contingut, (4) un model nou per a representar i raonar sobre escenaris de privacitat multiusari que empra tres tipus de característiques: factors contextuals, preferències d'usuari, i arguments d'usuaris; i, (5) Muppet, una ferramenta que recomana configuracions de privacitat en escenaris de privacitat multiusuari. / López Fogués, R. (2017). Enhancing Privacy Management on Social Network Services [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/85978 / TESIS

Page generated in 0.0416 seconds