• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3326
  • 2048
  • 475
  • 181
  • 181
  • 181
  • 181
  • 178
  • 178
  • 177
  • 177
  • 7
  • 4
  • 3
  • 3
  • Tagged with
  • 5882
  • 3174
  • 3124
  • 3107
  • 3039
  • 2995
  • 2988
  • 2987
  • 2981
  • 2968
  • 2965
  • 798
  • 490
  • 460
  • 416
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Modernización dirigida por modelos de interfaces gráficas de usuario= Model-driven modernisation of legacy graphical user interfaces

Sánchez Ramón, Óscar 19 December 2014 (has links)
Son numerosas las empresas que se enfrentan actualmente a la modernización de los sistemas heredados (legacy systems) que fueron desarrollados con entornos RAD (Rapid Application Development), con el objetivo de beneficiarse de las nuevas plataformas y tecnologías. Como parte de estos sistemas, las interfaces gráficas de usuario (GUIs, Graphical User Interfaces) son una parte importante, dado que es lo que los usuarios ven y manipulan. En las modernizaciones de GUIs de aplicaciones creadas con entornos RAD los desarrolladores deben tratar con dos problemas no triviales. El primero consiste en que el layout de la GUI (esto es, la organización espacial de los controles en las ventanas de la aplicación), se define implícitamente por las coordenadas que definen las posiciones de los controles. Sin embargo, para sacar provecho de las características que ofrecen las tecnologías actuales de GUIs se hace necesario un modelo de layout explícito de alto nivel. El segundo problema es que los desarrolladores tienen que tratar con el código de los manejadores de eventos que con frecuencia mezclan diferentes aspectos la aplicación, como la presentación y la lógica de negocio. Además, afrontar la migración de la GUI de un sistema heredado, esto es, programar de nuevo la interfaz es costoso para las empresas. Esta tesis pretende abordar estos problemas por medio de una arquitectura de Desarrollo de Software Dirigido por Modelos (DSDM) que automatice la migración de la interfaz de de aplicaciones creadas con entornos RAD. Para tratar con el primer problema proponemos un enfoque que descubre el layout que está implícito en las coordenadas de los controles. La idea subyacente consiste en trasladar el sistema de posicionamiento basado en coordenadas a una representación basada en relaciones entre controles, y entonces usar esta representación para inferir el layout en términos de gestores de layout (layout managers). Hemos desarrollado dos versiones de este enfoque: una solución voraz y otra más sofisticada basada en un algoritmo exploratorio. Con el objeto de tratar con el segundo problema hemos creado un enfoque de ingeniería inversa que analiza los manejadores de eventos de las aplicaciones creadas con entornos RAD. En nuestra solución, el código de los manejadores de eventos se transforma en una representación intermedia que captura el comportamiento de alto nivel del código. Esta representación facilita la separación de aspectos. En particular nos ha permitido separar los aspectos arquitecturales del código original e identificar las interacciones existentes entre los controles. Todos los modelos generados en el proceso de ingeniería inversa se han integrado en un modelo de Interfaz de Usuario Concreta que representa los diferentes aspectos que abarca una GUI. Tanto las dos propuestas de inferencia del layout como el análisis de los manejadores de eventos han sido testeados con aplicaciones reales que fueron desarrolladas en Oracle Forms. La versión del algoritmo de inferencia exploratorio fue adicionalmente testeada con esbozos (wireframes) de la interfaz, lo que demuestra la utilidad de la solución de inferencia del layout en escenarios distintos a la migración. / Businesses are more and more modernising the legacy systems they developed with Rapid Application Development (RAD) environments, so that they can benefit from new platforms and technologies. As a part of these systems, Graphical User Interfaces (GUIs) pose an important concern, since they are what users actually see and manipulate. When facing the modernization of GUIs of applications developed with RAD environments, developers must deal with two non-trivial issues. The first issue is that the GUI layout is implicitly provided by the position of the GUI elements (i.e. coordinates). However, taking advantage of current features of GUI technologies often requires an explicit, high-level layout model. The second issue is that developers must deal with event handling code that typically mixes concerns such as GUI and business logic. In addition, tackling a manual migration of the GUI of a legacy system, i.e., re-programming the GUI, is time-consuming and costly for businesses. This thesis is intended to address these issues by means of an MDE architecture that automates the migration of the GUI of applications created with RAD environments. To deal with the first issue we propose an approach to discover the layout that is implicit in widget coordinates. The underlying idea is to move from a coordinate-based positioning system to a representation based on relative positions among widgets, and then use this representation to infer the layout in terms of layout managers. Two versions of this approach has been developed: a greedy solution and a more sophisticated solution based on an exploratory algorithm. To deal with the second issue we have devised a reverse engineering approach to analyse event handlers of RAD-based applications. In our solution, event handling code is transformed into an intermediate representation that captures the high-level behaviour of the code. From this representation, separation of concerns is facilitated. Particularly it has allowed us to achieve the separation of architectural concerns from the original code, and the identification of interactions among widgets. All the generated models in the reverse engineering process have been integrated into a Concrete User Interface (CUI) model that represents the different aspects that are embraced by a GUI. The two layout inference proposals and the event handler analysis have been tested with real applications that were developed in Oracle Forms. The exploratory version of the layout inference approach was in addition tested with wireframes, which pose a different context in which the layout inference problem is also useful.
312

Mejora de sistemas de gestión de identidades centrados en el usuario mediante modelos de reputación en entornos distribuidos= Enhancing user-centric identity management systems with reputation models in distributed environments

Dólera Tormo, Ginés 31 October 2014 (has links)
Tesis por compendio de publicaciones / Objetivos Los sistemas de gestión de identidades establecen relaciones de confianza entre distintas organizaciones, de manera que la información de los usuarios es gestionada por una entidad confiable Cuando los usuarios acceden a un servicio en Internet, las funciones de autenticación y gestión de datos de los usuarios es delegada al proveedor de identidad. Sin embargo, estos sistemas, presentan numerosas carencias aún hoy día, especialmente en lo que se refiere al control que tiene el usuario sobre su propia información. Las soluciones actuales escasamente informan a los usuarios acerca de hacia dónde viaja su información personal. Estas dificultades se ven incrementadas cuando dichos sistemas de gestión de identidades han de ser desplegados en entornos distribuidos. Una alternativa que viene implantándose exitosamente, en los últimos años, para gestionar la confianza en entornos distribuidos viene dada por los sistemas de gestión de reputación. En estos sistemas, la confianza que se puede depositar en una entidad dada está basada en experiencias pasadas que se han tenido con dicha entidad. Aunque se ha avanzado favorablemente tanto en la gestión de identidades como en la gestión de reputación, la integración de ambos conceptos no es inmediata en entornos distribuidos. Por tanto, en esta tesis se pretende: • Analizar el estado del arte en cuanto a los sistemas de gestión de reputación aplicables a escenarios de gestión de identidades. • Diseñar y sugerir soluciones que permitan integrar sistemas de gestión de reputación en sistemas actuales de gestión de identidades centrados en el usuario, de manera que se informe a los usuarios apropiadamente antes de utilizar los servicios, y se gestione la confianza en entornos distribuidos. • Realizar un profundo análisis del comportamiento de dicha soluciones, utilizando distintos mecanismos para agregar las recomendaciones, y considerando usuarios y entidades maliciosas. • Proponer y analizar soluciones para mejorar la capacidad de adaptación de los sistemas de gestión de reputación actuales en entornos dinámicos. • Estudiar y plantear soluciones para aumentar la privacidad de los sistemas de gestión de reputación en el ámbito de los sistemas de gestión de identidades centrados en el usuario. Metodología Esta tesis doctoral tuvo como punto de partida el análisis del estado del arte de los sistemas de gestión de reputación, dentro del ámbito de los sistemas de gestión de identidades, y tomando como referencia las características intrínsecas de los entornos distribuidos. La idea era mejorar los sistemas de gestión de identidades para que estos informen a los usuarios apropiadamente antes de utilizar los servicios a los que dichos usuarios quieren acceder. De este modo, decidimos diseñar y analizar un modelo de gestión de reputación, aplicado en un sistema de gestión de identidades centrado en el usuario, distribuido y ampliamente extendido actualmente, como es el caso de OpenID. Como parte del análisis de la solución anterior, investigamos varios mecanismos para agregar las recomendaciones recolectadas de los usuarios, diferenciándose en su complejidad, requerimientos para hacerlos funcionar y en la capacidad para evitar usuarios malintencionados. Los resultados del análisis fueron positivos para demostrar la viabilidad del modelo. Sin embargo, el análisis de los distintos mecanismos para agregar recomendaciones puso de manifiesto la variabilidad de los resultados dependiendo del mecanismo escogido. Para solventar ese problema, ideamos y analizamos una solución capaz de seleccionar y activar el modelo de reputación más apropiado sobre la marcha, dependiendo de las condiciones del sistema y de las medidas de rendimiento deseadas. De esta manera, se tienen varios modelos de gestión de reputación disponibles, aunque solo uno de ellos permanece activo calculando los valores de reputación. Paralelamente, nos percatamos de la deficiencia de los sistemas de gestión de reputación a la hora de preservar la privacidad de los usuarios. Las recomendaciones que proporcionan los usuarios son consideradas como información privada, y distribuir libremente las mismas contradice uno de los principios de los sistemas de gestión de identidades, que consiste precisamente en proteger la privacidad de los usuarios. Así, tras un análisis del estado del arte en esta dirección, y tras estudiar la aplicabilidad de mecanismos de criptografía avanzada, propusimos un método orientado a la solución de dicha carencia. Utilizando técnicas de encriptación homomórfica, el método propuesto permite el cómputo de las recomendaciones proporcionadas por los usuarios, pero preservando la privacidad de las mismas. Resultados Los resultados de esta tesis han quedado esencialmente reflejados en los artículos que la componen. Así, el artículo titulado ``Towards the integration of reputation management in OpenID'' define un modelo de gestión de reputación y cómo éste puede ser aplicado a una versión extendida del protocolo definido por el estándar OpenID. Dicho modelo está basado en la idea de que los usuarios puedan proporcionar recomendaciones sobre un servicio, de manera que éstas sean agregadas por un proveedor de identidad de OpenID. El resultado de tal agregación puede ser proporcionado a los usuarios que pretendan utilizar el servicio. Estos resultados vienen complementados con los obtenidos en el artículo titulado ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. En ese trabajo presentamos un mecanismo capaz de seleccionar dinámica y automáticamente el modelo de reputación más apropiado. De esta manera, no se trata de desarrollar un modelo configurable, sino de tener varios modelos disponibles en espera, y activar el modelo más apropiado en cada momento (elegido según las reglas definidas), sin necesidad de parar o reconfigurar el sistema. Finalmente, en el artículo titulado ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'' abordamos el problema de la falta de privacidad que presentan los sistemas de gestión de reputación de la literatura actual. Las recomendaciones proporcionadas por los usuarios, o la opinión que tienen las entidades entre sí, podrían ser consideradas como información privada, en el ámbito de la gestión de identidades. En ese artículo planteamos una solución que permite las ventajas que tiene compartir esa información para alimentar los sistemas de gestión de reputación, pero manteniéndola privada. Utilizando encriptación homomórfica, esta solución muestra como las recomendaciones de los usuarios y otros parámetros necesarios para realizar el cálculo de la reputación pueden ser computados, sin necesidad de revelar dichos valores. / Motivation and Goals Identity management systems establish trust relationships between different organizations, in such a way that the information of the users is handled by a trusted entity. When users access a service in the Internet, the authentication methods and users' data management is delegated to the identity provider. However, these systems present numerous shortcomings even nowadays, especially in the aspects related to the control that the users have on their own information. Current solutions barely inform the users on where their personal information is going. These difficulties are increased even further when identity management systems have to be deployed in distributed environments. An alternative that is being successfully deployed in recent years in order to manage trust in distributed environments is introduced by reputation management systems. In these systems, the trust that can be placed on a given entity is based on past experiences that others have been having with such an entity. Even though both identity management and reputation management have been positively developed, merging both worlds is not straightforward in distributed environments, since it raises a number of challenges that have to be taken into consideration. Thus, the goals pursued within this thesis are the following: • Analyze the current state of the art regarding reputation management systems applicable to identity management systems scenarios. • Design and suggest solutions allowing the integration of reputation management systems with current user-centric identity management systems, in such a way that the users are properly informed before using the offered services, and the trust is properly managed in distributed environments. • Perform a deep analysis of the behavior of such solutions, making use of different mechanism to aggregate recommendations, and considering malicious users and entities, too. • Propose and analyze solutions aimed to enhance the adaptability of the current reputation management systems in dynamic environments. • Explore and propose solutions to improve the privacy of current reputation management systems within the context of user-centric identity management systems. Methodology This PhD dissertation sets its starting point at analyzing the state of the art on reputation management systems, within the context of identity management systems, and taking the intrinsic characteristics of distributed environments as a reference. The idea was to improve identity management systems in order to properly inform the users before enjoying the services they want to consume, including environments where trust cannot be handled with static agreements. Thus, we decided to design and analyze a reputation management model applied to a user-centric identity management system, distributed and currently widely spread, which is the case of OpenID. As part of the analysis of the aforementioned solution, we proposed a number of mechanisms to aggregate the collected users' recommendations, differing in its complexity, requirements to make them work, and capabilities to prevent ill-intentioned users. The results of such analysis were positive in order to demonstrate the feasibility of the model. However, the analysis of the distinct mechanisms used to aggregate users' recommendations made us realize the variability of the results depending on the chosen mechanism. In order to address that problem, we came up with a solution able to select and activate the most appropriate reputation management model on-the-fly, depending on the system conditions and desired performance measurements. Hence, a number of reputation management models are available, although only one of them remains active computing reputation values. At the same time, we realized the lack of reputation management systems sensitive on preserving users' privacy. Users’ recommendations are considered private information, and freely distributing those recommendations opposes the principles of identity management systems, which aim to protect users' privacy. Therefore, after an analysis of the related work in that direction, and after studying the applicability of advanced cryptographic mechanisms, we proposed a method towards solving that shortcoming. Using homomorphic encryption techniques, the proposed method allows computing recommendations provided by the users, yet preserving the privacy of those recommendations. Results The results of this thesis are essentially exposed in the articles that compose it. Hence, the article entitled ``Towards the integration of reputation management in OpenID'' defines a reputation management method and how it can be applied to an extended version of the protocol defined by the OpenID standard. The solution is based on the idea that the users can provide recommendations about a service, in such a way that those feedbacks can be aggregated by an OpenID Provider. The result of such aggregation can be delivered to the users willing want to use the service. That is complemented with the outcomes of the article entitled ``Dynamic and Flexible Selection of a Reputation Mechanism for Heterogeneous Environments''. In that document, we present a mechanism able to dynamically and automatically select the most suitable reputation model. Hence, it is no longer a matter of having a configurable model, but a pool of idle ones instead, and activate the most appropriate model at each moment (chosen according to the defined rules), without needing to stop or reconfigure the system. Finally, in the article entitled ``Identity Management: In Privacy We Trust. Bridging the Trust Gap in eHealth Environments'', we address the lack of privacy that reputation system described in the current literature present. Recommendations provided by the users, or the opinion that the entities have among each other, could be considered as private information in the context of identity management. In that document, we propose a solution aimed to have the advantages of sharing that information in order to feed the reputation management systems, while keeping it private. By using homomorphic encryption, that solution shows how users' recommendations and other required parameters to perform the reputation aggregation can be computed, but without revealing those values to potential attackers.
313

CERES: administración y gerenciamiento de la etapa de mantenimiento del software

Alonso, María Belén, Amadeo, María Vanesa January 1997 (has links)
No description available.
314

Managing access control systems in distributed environments with dynamic asset protection = Gestión de sistemas de control de acceso de ambientes distribuidos orientada a la protección dinámica de activos de información

Díaz López, Daniel Orlando 30 November 2015 (has links)
Tesis por compendio de publicaciones / Motivación y Objetivos Un activo representa un componente de un sistema de información el cual tiene un valor para la organización. Los activos pueden verse afectados por incidentes de seguridad causando daños económicos, operacionales, de reputación o legales. En este contexto, un proceso de control de acceso bien definido es esencial para garantizar accesos autorizados, el cual permita tener seguridad sobre los activos y operatividad del negocio. Sin embargo, el control de acceso no está limitado a un dominio de seguridad, y puede ser aplicado a múltiples dominios que usan y comparten activos e intercambian elementos relacionados a la seguridad. Esta situación trae dos importantes desafíos por enfrentar: 1) La necesidad de proponer mecanismos para permitir la composición de políticas de control de acceso de diferentes organizaciones y 2) La necesidad de direccionar el proceso de toma de decisiones de autorización para tener en cuenta requisitos de privacidad, confidencialidad y autonomía. Adicionalmente, el proceso de control de acceso no es simple e integra muchas variables como la clase de actores, las motivaciones para llevar a cabo un compromiso de los datos, las categorías de activos, la confianza entre asociados empresariales, y otros factores circunstanciales. Esto trae la necesidad de proveer una protección dinámica de activos a través de la mejora del proceso de control de acceso que permita principalmente hacerlo más efectivo en la confrontación de amenazas de seguridad de la información, y más apropiado para un contexto expuesto a diferentes riesgos de seguridad. Por otra parte, acercándonos a la perspectiva de los usuarios, una gran cantidad de datos son capturados diariamente a través de nuestras interacciones personales con dispositivos TIC (Tecnologías de la Información y las Comunicaciones) o aplicaciones, construyendo la idea de que cada uno de nosotros tiene una “vida digital”. Estos datos podrían ser almacenados, procesados, y accedidos con posterioridad para diferentes propósitos como: fines productivos, de salud, legales o de entretenimiento, generando servicios “Live Digital”. En esta clase de sistemas, un proceso de control de acceso toma relevancia debido a que éste debería asegurar solamente el acceso de aplicaciones/usuarios autorizados a ciertas clases de datos personales basado en las restricciones definidas por el propietario de dichos datos. Así, el objetivo principal en esta tesis doctoral es desarrollar propuestas para la gestión de sistemas de control de acceso usando elementos innovadores y buscando su aplicabilidad en escenarios reales distinguidos por tener un notorio componente de autorización. De la misma forma, se definen los siguientes objetivos específicos: • Estudiar diseños de sistemas de control de acceso existentes, identificando sus principales limitaciones cuando son aplicados a situaciones de múltiples dominios de seguridad con activos compartidos (i.e. ambientes distribuidos). • Proponer una solución para una efectiva gestión de políticas en ambientes distribuidos que permita a los dominios de seguridad mantener cierta autonomía y confidencialidad. • Lograr una forma innovadora de proveer un proceso de control de acceso para activos de información que considere los riesgos de seguridad como parte del contexto de autorización. • Proponer una solución orientada a mitigar riesgos de seguridad en activos de información en una ventana de tiempo razonable y considerando los objetivos de seguridad de la organización. • Identificar desafíos de seguridad y privacidad a través del análisis de soluciones existentes en el área de sistemas Live Digital. • Proponer una arquitectura para soportar sistemas Live Digital con una aproximación prevalente a la seguridad de los datos y la privacidad, y con la posibilidad de aplicar los resultados obtenidos de los objetivos previos. Metodología Esta tesis doctoral ha sido elaborada como resultado de diferentes estancias en sectores de I+D (Investigación y Desarrollo) e industria dentro del área de seguridad de la información, principalmente en NLE (NEC Laboratories Europe) en Alemania, con una continua orientación del Departamento de Ingeniería de la Información y las Comunicaciones (DIIC) de la Universidad de Murcia en España. Las actividades iniciales se iniciaron con la propuesta y desarrollo de mejoras para un motor XACML alojado en NLE, la mayoría de ellas relacionadas con el módulo PDP (Policy Decision Point), y con el módulo PAP (Policy Administration Point). A partir de ahí surgieron algunas ideas acerca de cómo trasladar las funcionalidades de un motor de autenticación y autorización a un ambiente distribuido y colaborativo compuesto por diferentes unidades de negocio. Consecuentemente, una arquitectura para administrar políticas de control de acceso en ambientes distribuidos fue propuesta y desarrollada, la cual consideró y resolvió diferentes aspectos relacionados con la comunicación entre partes, la administración de políticas de control de acceso y la seguridad de las comunicaciones. A continuación, otra oportunidad de investigación surgió enfocada en algoritmos que pudieran ayudar a determinar la decisión de autorización apropiada para regular el acceso a un activo, pero también pudieran contribuir a mitigar un riesgo de seguridad identificado como parte de un proceso de valoración del riesgo bien definido. En este punto, y como parte de esta tesis doctoral, se definió una propuesta de modelo para la adopción de contramedidas dinámicas que cambian en el tiempo para enfrentar las variaciones en el nivel de riesgo medido para cada recurso, basándonos para ello en algoritmos genéticos. Con el objeto de considerar una situación cercana al dominio del usuario en donde los sistemas de control de acceso podrían representar un elemento clave para garantizar la seguridad y privacidad, exploramos el estado del arte y los desafíos de los sistemas Live Digital. Este contexto trajo la oportunidad de usar algunos de los hitos logrados previamente en esta tesis relacionados a la gestión de políticas de control de acceso en ambientes distribuidos y el uso de contramedidas dinámicas en el proceso de decisión de autorización. Adicionalmente se hizo una completa revisión de trabajos que podrían tener una aproximación hacia sistemas Live Digital y un estudio de las arquitecturas de estos sistemas con el propósito de encontrar funcionalidades y limitantes existentes. Resultados Los primeros resultados de esta tesis doctoral están descritos en el artículo “Managing XACML systems in distributed environments through Meta-Policies”. Este artículo hace una extensión de las funcionalidades ya conocidas de un sistema de control de acceso que actúa dentro de un dominio de seguridad, hacia un contexto compuesto de múltiples dominios de seguridad en el cual se requiere coordinación con el fin de resolver apropiadamente todas las solicitudes de autorización. Adicionalmente este artículo ofrece un conjunto de operaciones de administración, que combinadas con un conjunto de Meta-Políticas bien definidas, permiten tener un ambiente distribuido con muchos motores de control de acceso realizando comunicación y coordinación entre ellos. Luego, desarrollamos una propuesta de adopción de contramedidas dinámicas cambiando a lo largo del tiempo para dar respuesta a las variaciones en el nivel de riesgo de cada recurso en el artículo “Dynamic countermeasures for risk-based access control systems: An evolutive approach”. Este trabajo propone un modelo el cual genera conjuntos de contramedidas ajustadas tomando en cuenta factores (atributos) relevantes para una clase de activos y para un nivel de riesgo específico. Con esta propuesta hay dos beneficios principales: i) Aplicación de un proceso de gestión de riesgos para garantizar una protección dinámica de activos y ii) Gestión de privilegios sobre activos a través de un sistema de control de acceso. Finalmente, diferentes desafíos identificados para sistemas Live Digital, complementado con características que deben estar presentes en estos sistemas fueron planteadas y descritas en el artículo “Live digital, remember digital: State of the art and research challenges”. Este artículo también propone una arquitectura para soportar las características identificadas previamente, así como una descripción de los elementos para soportar un servicio seguro en el lado cliente y servidor. Dentro de los desafíos se incluyen: acceso selectivo, recolección selectiva y seguridad y privacidad transversal, los cuales pueden ser abordados con soluciones como las propuestas en los artículos previos que conforman esta tesis doctoral. / Motivation and Goals An asset represents a component of an information system which has some value for an organization. The assets can be affected by security incidents causing economical, operational, reputational or legal affectations. In this context, a well-defined access control process is essential to guarantee authorized accesses which in turn allow assets security and business operability, known in the literature as balance between security and utility. However, the access control is not limited to one security domain, and can be applied to a situation of different domains using and sharing assets, and exchanging security assertions, which generates situations of composition of authorization decisions. This situation brings two important challenges to face: 1) The need to propose mechanisms to allow the composition of access control policies from different organizations in order to achieve a right authorization decisions making process, and 2) The need to take into account privacy, confidentiality and autonomy requirements into the authorization decisions making process. Additionally, the access control process is not simple and integrates many variables like kind of actors, data breach motivations, asset categories, impact of the data breach, trust between partners, and other circumstantial factors. This brings the need to provide a dynamic asset protection through the improvement of the access control process. The improvements to the process should allow mainly to make it more effective facing information security threats, and more appropriated for a context exposed to different security risks. Additionally, getting closer to the user's perspective, a big amount of data is captured daily through our personal interactions with ICT devices or applications in general, building up the idea that each one of us has a “digital life”. This historical data could be stored, processed and subsequently accessed for different kind of purposes like: productive, healthy, legal or entertainment, generating “live digital” services. In this kind of systems, an access control process also takes relevance as it should ensure that only authorized users/applications access certain types of personal data based on restrictions defined by the data owner. Thus, the main goal in this PhD Thesis is to develop proposals for the management of access control systems using innovative elements and pursuing its applicability in real scenarios which are distinguished for having a noticeable authorization component. In the same way, the next specific goals are defined: • Study existing designs of access control systems, identifying their main limitations when applied to multiple security domains with shared assets (i.e. distributed environments). • Propose a solution for an effective policy management in distributed environments which allows security domains to maintain certain autonomy and confidentiality. • Achieve an innovative access control process to assets which considers the security risks as part of the authorization context. • Propose a solution aimed to mitigate security risks in assets in a reasonable time frame and considering the security objectives of an organization. • Identify security and privacy challenges through the analysis of existing solutions in the area of live digital systems. • Propose an architecture to support live digital systems with a prevailing data security and privacy approach and with the possibility to apply results obtained in previous objectives. Methodology This PhD Thesis has been elaborated as a result of different internships in R&D (Research and Development) and industrial sectors within the area of information security, mainly at NLE (NEC Laboratories Europe) in Germany, with a continuous guidance from the Department of Information and Communications Engineering (DIIC) of the University of Murcia in Spain. First activities started with the proposition and development of improvements for an XACML engine developed by NLE, most of them related with the PDP (Policy Decision Point) module and with the PAP (Policy Administration Point) module. Then, some inquiries and ideas emerged on how to translate the functionalities of an authentication and authorization engine to a distributed and collaborative environment composed by different business units, each one constituting an independent security domain. Consequently, an architecture to manage access control policies in distributed environments was proposed and developed, which considered and resolved different aspects related to the communication between parties, the management of access control policies and the securing of the communications. Then, another opportunity of research appeared focused on algorithms that could help in the process of finding the appropriate authorization decision to regulate the access to an asset, but also to contribute to mitigate an identified security risk as part of a well-defined risk assessment process. Here, we defined a proposal for the adoption of dynamic counter-measures changing along time to face variations in the measured risk level for every resource, based on genetic algorithms. In order to consider a situation more in the user domain where access control systems could represent a key element to guarantee security and privacy, we explored the state of the art and challenges of live digital systems. This context brought the opportunity to use some of the previous findings in this PhD thesis related to the management of access control policies in distributed environments and the dynamic counter-measures used for the authorization decision process. We made a complete revision of works that could have an approach to live digital systems and a study of the architecture of these systems in order to find existing functionalities and shortcomings. Results The first results of this PhD Thesis are detailed in the paper “Managing XACML systems in distributed environments through Meta-Policies”. This paper makes an extension of the already-known functionalities of an access control system working for one security domain, toward a context composed of multiple security domains (and therefore multiple access control systems) which need to be coordinated in order to resolve appropriately all the authorization requests. It also offers a set of administration operations, which combined with a set of well-defined Meta-Policies, allows having a distributed environment with many access control engines performing communication and coordination between them. Subsequently, we developed a proposal of adoption of dynamic counter-measures changing along time to face variations in the risk level of every resource in the paper entitled “Dynamic counter-measures for risk-based access control systems: An evolutive approach”. This paper proposes a model which generates sets of customizable counter-measures taking into account factors (attributes) relevant for a kind of asset and for a specific risk level. With this model there are two main benefits, namely: i) Application of a risk management process to guarantee a dynamic asset protection and ii) Management of privileges over assets through a risk-based access control system. Finally, different challenges identified for live digital systems, along with features that have to be present in these systems were posed and described in the paper “Live digital, remember digital: State of the art and research challenges”. This paper also proposes an architecture to support the wished features identified previously, and makes a description of the required elements to support a secure service in the client and server side. These challenges are included for these systems: selective-access, selective-gathering and transversal security and privacy, which can be tackled with solutions like the ones proposed in the previous papers of this PhD Thesis.
315

Desarrollo de un modelo para la gestión de la I+D+i soportado por tecnologías de la web semántica

García Moreno, Carlos 13 November 2015 (has links)
OBJETIVOS El principal objetivo de esta tesis doctoral es (i) el desarrollo del primer modelo completo, concreto e integrado para la gestión del proceso de la I+D+i, identificando los flujos de información entre los distintos procesos y los elementos que lo componen, de forma no lineal, siendo a la vez un modelo flexible, aplicable a cualquier organización con independencia de sus características específicas, y apto para la innovación tanto individual como colaborativa. Los otros dos objetivos esenciales del trabajo realizado son: (ii) el desarrollo de las tecnologías necesarias para proporcionar el soporte automatizado e inteligente a la gestión de la I+D+i, en base al modelo construido; y (iii) la integración de las tecnologías desarrolladas en un caso de aplicación en un entorno empresarial real, para validar tanto su eficacia como su utilidad. METODOLOGÍA Para la construcción del modelo propuesto para la gestión de la I+D+i en primer lugar se realizó un análisis exhaustivo de las normativas seleccionadas como referencia, identificando las inexactitudes, incoherencias y faltas de concreción que éstas presentan. Se propusieron soluciones a estos aspectos y se detallaron los componentes del modelo y las relaciones y flujos de datos entre ellos. De esta forma se habilita el desarrollo de soluciones software que permitan proporcionar un soporte automatizado e inteligente a la gestión de la I+D+i en base a una gestión optimizada del conocimiento relacionado con ella. En base a ese modelo se desarrollaron las tecnologías de la Web Semántica para hacer posible el mencionado soporte, incorporándolas a una plataforma de gestión de ideas para proyectos de I+D+i. el soporte inteligente a este proceso propuesto como ejemplo se basa en la identificación de una serie de similitudes entre componentes del sistema de gestión de la I+D+i que tienen influencia en el mismo. Para ello estos son los principales desarrollos realizados: (i) ontología del dominio de la gestión de la I+D+i; (ii) sistema de extracción semántica estructurada, encargado de generar el modelo semántico asociado; (iii) repositorio semántico que complementa a la ontología del dominio; y (iv) sistema semántico para proporcionar el soporte inteligente a través de la identificación de similitudes entre distintos tipos de entidades del repositorio semántico. Para ello se han tomado como base desarrollos previos del grupo de investigación al que pertenecen los directores de esta tesis doctoral. CONCLUSIONES A pesar de que la I+D+i actualmente tiene una importancia crucial para el éxito y la supervivencia de las organizaciones, a su vez plantea una serie de retos, riesgos y dificultades a los que aún no se ha dado respuesta por medio de ninguna de las metodologías propuestas ni de los sistemas desarrollados para el soporte a su gestión. Las principales carencias de estos modelos y soluciones TIC radican en que ninguno contempla la gestión de la I+D+i desde un punto de vista integrado, no siendo posible prestar un soporte inteligente a este proceso por medio de una gestión optimizada del conocimiento. A través de la validación llevada a cabo en un entorno empresarial real se ha demostrado la validez, tanto del modelo para la gestión de la I+D+i creado, como de las tecnologías semánticas desarrolladas, solventando las carencias identificadas en el estado del arte. Aparte se han mostrado aspectos interesantes acerca del comportamiento de este proceso bajo distintas circunstancias. Asimismo se ha demostrado la influencia crucial de la calidad de la información incorporada en el sistema en la riqueza y precisión del soporte inteligente prestado. / OBJECTIVES The main objective of this thesis is: (i) the development of the first comprehensive, concrete and integrated model for R&D&I management, identifying the information flows between the different processes and elements that compose it, in a non-lineal way, being at the same time a flexible model applicable to any organization regardless of its specific characteristics, and suitable for both individual and collaborative innovation. The other two key objectives of the work are: (ii) the development of the technologies needed to provide automated and intelligent support to R&D&I management, based on the created model; and (iii) the integration of the developed technologies in a real business environment application case, to validate both its effectiveness and usefulness. METHODOLOGY In order to develop the proposed R&D&i management model, first a comprehensive analysis of the selected reference normative was made, identifying the inaccuracies, inconsistencies and lack of specificity that they have. Solutions to these issues were proposed and model components (and relationships and data flows between them) were detailed. In this way the development of software solutions to provide automated and intelligent support to R&D&i management through an optimized knowledge management is enabled. Based on this model, Semantic Web technologies were developed to enable this support, incorporating them in an R&D&i idea management platform. Intelligent support to this proposed as an example process is based on the identification of several similarities between the components of the R&D&i management system that influence it. In order to achieve that, following are the main developments made: (i) R&D&i management domain ontology; (Ii) semantic structured extraction system, for generating the associated semantic model; (Iii) semantic repository that complements the domain ontology; and (iv) semantic system, for providing intelligent support by identifying similarities between different types of entities in the semantic repository. These are based on previous developments of the thesis directors research group. CONCLUSIONS Although R&D&i currently has a crucial importance for the success and survival of organizations, at the same time it implies several challenges, risks and difficulties that has not been already solved by any of the proposed methodologies and systems developed to support its management. The main weaknesses of these models and ICT solutions are that none of them faces the R&D&i management from an integrated point of view, so it is not possible to provide intelligent support to this process through an optimized knowledge management. The validation, carried out in a real business environment, has demonstrated the validity of the developed R&D&i management model and the corresponding semantic technologies for solving the shortcomings identified in the state of art. Moreover, interesting aspects about the behaviour of this process in different circumstances have been shown. The crucial influence on the quality of the system information in the richness and precision of the intelligent support provided has also been demonstrated.
316

TMRorR: um novo algoritmo de escalonamento para o OurGrid que combina o uso de informação e replicação

Silva, Benevid Felix da January 2009 (has links)
Made available in DSpace on 2013-08-07T18:42:16Z (GMT). No. of bitstreams: 1 000418921-Texto+Completo-0.pdf: 1274519 bytes, checksum: 8981beef3de1308b9b81b49d455f1623 (MD5) Previous issue date: 2009 / An efficient distribution of tasks in computational grids has major challenges that have to be overcomed by a scheduling algorithm. These challenges are related to the characteristics of the environment, such, scalability, heterogeneity, dynamicity, among others. Most of the existing scheduling algorithms use information obtained from the environment or the replication of tasks in order to achieve a satisfactory performance in the execution of applications. Algorithms that rely on resource information to accomplish their task are restricted to environments in which such information is available and reliable all across the grid. On the other hand, algorithms that use replication could be used in any environment but they introduce a significant overhead to the scheduling. However, although reliable information is usually not available across the Grid because of the dynamicity of the resources, it’s possible to have updated resource information inside a local site. This motivates the development of algorithms that use a hybrid technique. In this case the information is used to perform the scheduling when available - for example in the local site - and only when it’s not available the scheduler uses replication, thus reducing its overhead. This work proposes such an hybrid algorithm called TMRorR - Task More Reliable or Replicate for the Ourgrid middleware. The algorithm was simulated with GridSim and implemented in OurGrid to perform the experiments. Obtained results showed a better performance of TMRorR in comparison to the Ourgrid scheduler in several scenarios and a reduction in the overhead of creating replica. / A distribuição de tarefas de forma eficiente em grades computacionais possui grandes desafios que devem ser considerados por um algoritmo de escalonamento. Esse desafios estão relacionados com as características das grades, como a escalabilidade, heterogeneidade, dinamicidade, entre outros. Dentre as diversas propostas de algoritmos de escalonamento existentes, grande parte utilizam da informação obtida do ambiente ou da replicação de tarefas como forma de atingir um desempenho satisfatório na execução das aplicações dentro da grade. Os algoritmos de escalonamento que dependem somente das informações para realizar o escalonamento estão restritos a ambientes em que as mesmas estejam disponíveis e sejam confiáveis. Já os algoritmos que utilizam somente de replicação não dependem de nenhuma informação. A existência de ambientes em que a presença de informação não é totalmente confiável ou não atende a todos os recursos da grade, motiva o surgimento de algoritmos que utilizam uma técnica híbrida. Neste caso a informação, quando disponível, é utilizada para realizar o escalonamento, porém, quando não, utiliza-se da replicação de tarefas. Este trabalho realiza um estudo acerca do escalonamento de tarefas realizado pelo WQR do OurGrid e apresenta um novo algoritmo para escalonamento de aplicações Bag-of-Tasks aqui denominado TMRorR (Task for More Reliable or Replicate).Este algoritmo utiliza uma técnica híbrida e, considera sempre que um recurso que possui informação é sempre mais confiável do um que não possui e, também, faz uma distinção entre recursos pertencentes ao domímio local e recursos pertencentes a outros domínios, tendo regras de escalonamento com algumas diferenças para ambos os casos. O algoritmo foi simulado utilizando o GridSim e implementado no OurGrid para realizar os experimentos. Comparando os resultados obtidos, eles mostraram um desepenho melhor do TMRorR em relação WQR na maioria dos casos, como também, uma redução no desperdício de ciclos de CPU com a realização de um controle maior na criação de réplicas.
317

Um MPSOC GALS baseado em rede intrachip com geração local de relógio

Heck, Guilherme January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:17Z (GMT). No. of bitstreams: 1 000445336-Texto+Completo-0.pdf: 3946436 bytes, checksum: 1e6fa2914e52a5786113539640cd4a99 (MD5) Previous issue date: 2012 / Due to the evolution of deep submicron technologies for semiconductor fabrication, it is possible nowadays to manufacture increasingly complex systems inside a single sili-con die. However, this evolution in some cases mandates the abandonment of traditional design techniques. The development of purely synchronous complex systems begins to be influenced by relatively long intrachip distances as well as by parasitic effects in wires with growingly small cross-sections. Besides, it is important to enable the design of devices with enhanced processing capabilities to fulfill the demand for multiple applications in re-search and industry environments, while at the same time improving energy efficiency. This is motivated by the significant increase on the demand for multifunctional portable equipments like tablets and smart phones that must everyday become faster and yet present reasonable battery life. In view of these facts, new paradigms for the design of globally asynchronous locally synchronous (GALS) systems come to the forefront in the construction of multiprocessor systems on chip (MPSoCs). This work has as main strateg-ic objective to explore GALS MPSoC architectures that target the control of power dissipa-tion. The decision to work with MPSoCs comes from the natural need to increase the number of processing elements in current designs, as a way to take full advantage of the silicon technological evolution. During the development of this work five distinct contribu-tions are worth mentioning. First, the architectures of the Hermes-GLP NoC router and of the HeMPS MPSoC were subject to a set of corrections and modifications, to provide these modules with better support to the implementation of GALS systems. This allowed the proposition of a new MPSoCs, called HeMPS-GLP. Second, a set of changes in the embedded processor microkernel of the HeMPS MPSoC enabled the smooth interconnec-tion and configuration of new hardware structures to the system processors. Third, a new high-level language verification environment for the HeMPS-GLP MPSoC was made avail-able, which supports up to 256 distinct operating frequencies for the NoC, together with the independent definition of each processing element´s clock. Fourth, there is the propo-sition of a new local clock generator targeting minimum area, low power dissipation, oper-ating frequency stability and insensitivity to process, voltage and temperature variations. Finally, this work provides a simulation and code generation environment for silicon im-plementations of the HeMPS-GLP MPSoC. This environment emulates the local clock ge-nerators, based on the designed local clock generator. / Devido à evolução das tecnologias nanométricas profundas em semicondutores, hoje é possível a fabricação de sistemas cada vez mais complexos em um único chip. Entretanto, esta evolução está inviabilizando, em alguns casos, práticas de projeto tradi-cionais. O desenvolvimento de sistemas complexos puramente síncronos começa a ser influenciado por distâncias intrachip relativamente longas, bem como por efeitos parasitas em fios com áreas de secção reta cada vez menores. Adicionalmente, ganha destaque em pesquisa e na indústria a necessidade de projetar dispositivos com elevada capacida-de de processamento para atender a demanda de múltiplas aplicações, enquanto aprimo-ram-se os níveis de eficiência energética. Isto é motivado pelo significativo aumento da procura por equipamentos portáteis multifunções como tablets e celulares inteligentes mais velozes e com durabilidade de bateria razoável. À luz destes fatos, novos paradig-mas de projeto de sistemas globalmente assíncronos e localmente síncronos (GALS) ga-nham destaque para construir sistemas multiprocessados em chip (MPSoCs). Este traba-lho tem como principal objetivo estratégico explorar arquiteturas GALS para MPSoCs com alvo no controle da potência dissipada. Escolhe-se trabalhar sobre MPSoCs devido ao aumento significativo de módulos de processamento em projetos atuais como uma forma de tirar vantagem plena da evolução das tecnologias de fabricação baseadas em silício. Ao longo das atividades, cinco contribuições podem ser destacadas oriundas cada uma de um conjunto de trabalhos práticos desenvolvidos. Primeiro, propôs-se um conjunto de correções e modificações nas arquiteturas do roteador da NoC Hermes-GLP e do MPSoC HeMPS, visando transformar estes em um melhor suporte à implementação de sistemas GALS. Isto produziu uma nova arquitetura de MPSoC, denominado HeMPS-GLP. Segun-do, alterações na estrutura do microkernel embarcado dos processadores do MPSoC HeMPS possibilitaram a interconexão e configuração corretas de novas estruturas em hardware aos processadores em questão. Terceiro, disponibilizou-se um ambiente de ve-rificação em linguagem de alto nível para o MPSoC HeMPS-GLP, com suporte a até 256 níveis distintos de frequência para a rede, bem como a definição do relógio de cada IP de processamento de forma independente. Em quarto lugar, foram realizados o estudo e o projeto de um gerador local de relógio visando obter área mínima, baixa dissipação de potência, estabilidade em frequência e insensibilidade a variações de processo, tensão de alimentação e temperatura. Quinto e último, foi desenvolvido um ambiente de simulação e geração de código sintetizável em silício para o MPSoC HeMPS-GLP. Este provê a emu-lação do sistema de geração local de relógio, baseado no gerador local projetado.
318

Um modelo de rastreabilidade entre o documento de especificação de requisitos e o modelo de casos de uso do sistema

Cerri, Elisa Cerri e January 2007 (has links)
Made available in DSpace on 2013-08-07T18:42:19Z (GMT). No. of bitstreams: 1 000397346-Texto+Completo-0.pdf: 4530016 bytes, checksum: 352e36ac7364f10a537fdc3e0de1094a (MD5) Previous issue date: 2007 / To produce the right software is, nowadays, the main goal of the software development organizations. For that, the whole point is to have a requirements process that involves the organization’s needs all the time. The software requirements specifications (SRS) is used to formalize the user’s needs and the use case model (UCM) is used during the development process. So, the SRS should involve all the functionalities that reflect a user’s true needs and the UCM should have all the requirements specified in that. In this context, this research presents a traceability model linking software requirements specification and system use case model. This model was developed starting from conceptual models of these artifacts and business needs, identified in a case study at a software development organization. The main contribution of this model is to help the requirements engineering activity, keeping the integrity between the generated artifacts when the system requirements are changed. / Um produto final que represente realmente as necessidades dos usuários é, atualmente, uma busca constante das organizações de desenvolvimento de software. Um ponto crucial para o alcance deste objetivo é realizar um processo de requisitos que considere as necessidades organizacionais do início ao fim. O documento de especificação de requisitos (SRS) é utilizado para formalizar as necessidades dos clientes e o modelo de casos de uso (MCU) serve como base para o processo de desenvolvimento. Sendo assim, é importante que a SRS contenha todas as funcionalidades requisitadas pelos usuários e que o MCU represente-a fielmente, contendo todos os requisitos nela estabelecidos. Neste contexto, este trabalho apresenta um modelo de rastreabilidade entre o documento de especificação de requisitos e o modelo de casos de uso do sistema. Este modelo foi desenvolvido com base nos modelos conceituais destes artefatos e nas necessidades organizacionais, identificadas através de um estudo de caso realizado em uma organização de desenvolvimento de software. Sua principal contribuição é auxiliar a atividade de engenharia de requisitos, mantendo a integridade entre os artefatos gerados quando da mudança dos requisitos do sistema.
319

Uma exploração do espaço de projeto de processadores com hardware de ponto flutuante em FPGAS

Rodolfo, Taciano Ares January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:22Z (GMT). No. of bitstreams: 1 000447663-Texto+Completo-0.pdf: 3152066 bytes, checksum: ada0593d3cfeecc7c99152d88798658e (MD5) Previous issue date: 2010 / Arithmetic circuits are a fundamental part of digital systems, since every piece of information processed by them must first be encoded as numbers, and arithmetic is the ultimate way to systematically manipulate numbers. There exists a large number of available number encoding schemes, but three of these stand as useful in most situations: unsigned, integer and floating point. The first two are simpler and more universal, but some applications do require the recourse to the extended range of values, and the increased precision of floating point representations. Although the use of floating point hardware in FPGAs has long been considered unfeasible or relegated to use only in expensive devices and platforms, this is no longer the case. This work describes the design process, the implementation and a preliminary evaluation of single-precision floating point hardware units for an instance of the MIPS processor architecture. It explores several fully-fledged implementations that have the form of strongly coupled coprocessors. These coprocessors take as little room as 4% of a medium-sized FPGA, while the processor CPU may take only 3% of the same device. The space exploration process described here values area, performance and power metrics and considers variations on the choice of synthesis tool, floating point unit generation method and architectural issues such as clocking schemes. The conducted experiments show reductions of more than 20 times in clock cycles count for typical floating point application modules, when compared to the use of software-emulated floating point processing. / Circuitos aritméticos são parte fundamental de sistemas digitais, uma vez que cada porção de informação processada por estes deve ter sido codificada previamente sob a forma de números, e que a aritmética é a forma por excelência de proceder à manipulação sistemática de números. Existe uma grande quantidade de esquemas de codificação usados em sistemas digitais, mas três formas de representação se sobressaem por serem usadas na maioria maciça das situações: números sem sinal, números inteiros e a representação de ponto flutuante. Os dois primeiros são mais simples e mais universais, mas algumas aplicações exigem o recurso à faixa estendida de valores e à precisão incrementada de representações de ponto flutuante. Embora o uso de hardware de ponto flutuante em FPGAs tenha sido por muito tempo considerado inviável ou relegado ao uso apenas em dispositivos e plataformas de alto custo, esta não é mais a situação atual. Este trabalho descreve o processo de projeto, a implementação física e uma avaliação preliminar de unidades de processamento de ponto flutuante de precisão simples em hardware para uma arquitetura de processador MIPS. Exploram-se várias implementações completas que têm a forma de coprocessadores fortemente acoplados. Estes coprocessadores ocupam apenas 4% de um FPGA de tamanho médio, enquanto o processador em si ocupa 3% do mesmo dispositivo. O processo de exploração do espaço de soluções de projeto descrito aqui considera as figuras de mérito área, desempenho e potência e considera variações na escolha da ferramenta de síntese, do método de geração a unidade de ponto flutuante e questões arquiteturais tais como estratégias de uso de relógios. Os experimentos conduzidos mostram reduções de mais de 20 vezes na contagem do número de ciclos de relógio do processador, para módulos de aplicação típicos que usam ponto flutuante de forma intensiva, quando comparado com processamento de representações de ponto flutuante emulado em software.
320

Padrões de evolução na prática de desenvolvimento distribuído de software em ambientes de internal offshoring: um modelo de capacidade

Prikladnicki, Rafael January 2009 (has links)
Made available in DSpace on 2013-08-07T18:42:22Z (GMT). No. of bitstreams: 1 000424664-Texto+Completo-0.pdf: 4520674 bytes, checksum: c437217e2e03ed5dc3a9ef81b0557f2d (MD5) Previous issue date: 2009 / The Software Engineering (SE) community has witnessed a significant change in the way software projects have been developed in the last years. Software project teams have become geographically distributed and the term Distributed Software Development (DSD) is frequently used in industry. To embark on a DSD journey, a company usually defines a strategy based on a DSD business model. The two main models in a global development context include offshore outsourcing (contracting services with an external company) and internal offshoring (contracting with a wholly owned subsidiary). The goal of this research was to understand and to identify patterns in the evolution of practices of organizations involved in internal offshoring, in order to further knowledge about DSD practices. This understanding is also useful for companies starting DSD operations. These companies can benefit from this knowledge which describes practices adopted by other organizations in the past. The result of this research is a capability model that describes patterns of evolution in the practice of distributed software development activities within and among several subsidiaries owned by an organization in the internal offshoring model. This model is organized in three dimensions: capability levels, capability areas (people, project, portfolio and subsidiary) and capability attributes. To develop this model, we have used a qualitative retrospective study, based on Yin’s Case Study approach [154], with qualitative and quantitative data collection instruments. / A comunidade de Engenharia de Software (ES) tem testemunhado uma mudança significativa na forma com que os projetos de software têm sido desenvolvidos nos últimos anos. As equipes vêm sendo organizadas de forma distribuída, e o termo Desenvolvimento Distribuído de Software (DDS) tem sido cada vez mais utilizado na indústria. Para se inserir em um ambiente distribuído, uma organização geralmente define a estratégia baseada em um modelo de negócio de DDS. No DDS em escala global os dois principais modelos são o offshore outsourcing (contratação de uma organização externa, localizada em outro país) e o internal offshoring (criação de uma unidade da própria organização, também localizada em outro país). Esta pesquisa tem por objetivo entender e identificar padrões de evolução das práticas das organizações envolvidas com o internal offshoring, contribuindo com o ainda incipiente corpo de conhecimento na área. Este entendimento também é útil para aquelas empresas iniciando operações de DDS, que poderão se beneficiar do conhecimento de práticas que foram aplicadas em outras organizações no passado. Desta forma, o resultado desta pesquisa é um modelo de capacidade que descreve padrões de evolução na prática de DDS em uma ou mais unidades (centros de desenvolvimento) no modelo de internal offshoring. O modelo está organizado em três dimensões, quais sejam: níveis de capacidade, áreas de capacidade (pessoas, projetos, portfólios e unidades) e atributos de capacidade. Para propor o modelo de capacidade optou-se por um estudo qualitativo em retrospectiva, inspirado no modelo de Yin [154] de Estudo de Caso, com a utilização de instrumentos de coleta de dados qualitativos e quantitativos.

Page generated in 0.0618 seconds