• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

HERMESH : a geometrical domain composition method in computational mechanics

Eguzkitza Bazar, Ane Beatriz 17 June 2014 (has links)
With this thesis we present the HERMESH method which has been classified by us as a a composition domain method. This term comes from the idea that HERMESH obtains a global solution of the problem from two independent meshes as a result of the mesh coupling. The global mesh maintains the same number of degrees of freedom as the sum of the independent meshes, which are coupled in the interfaces via new elements referred to by us as extension elements. For this reason we enunciate that the domain composition method is geometrical. The result of the global mesh is a non-conforming mesh in the interfaces between independent meshes due to these new connectivities formed with existing nodes and represented by the new extension elements. The first requirements were that the method be implicit, be valid for any partial differential equation and not imply any additional effort or loss in efficiency in the parallel performance of the code in which the method has been implemented. In our opinion, these properties constitute the main contribution in mesh coupling for the computational mechanics framework. From these requirements, we have been able to develop an automatic and topology-independent tool to compose independent meshes. The method can couple overlapping meshes with minimal intervention on the user's part. The overlapping can be partial or complete in the sense of overset meshes. The meshes can be disjoint with or without a gap between them. And we have demonstrated the flexibility of the method in the relative mesh size. In this work we present a detailed description of HERMESH which has been implemented in a high-performance computing computational mechanics code within the framework of the finite element methods. This code is called Alya. The numerical properties will be proved with different benchmark-type problems and the manufactured solution technique. Finally, the results in complex problems solved with HERMESH will be presented, clearly showing the versatility of the method. / En este trabajo presentamos el metodo HERMESH al que hemos catalogado como un método de composición de dominios puesto que a partir de mallas independientes se obtiene una solución global del problema como la unión de los subproblemas que forman las mallas independientes. Como resultado, la malla global mantiene el mismo número de grados de libertad que la suma de los grados de libertad de las mallas independientes, las cuales se acoplan en las interfases internas a través de nuevos elementos a los que nos referimos como elementos de extensión. Por este motivo decimos que el método de composición de dominio es geométrico. El resultado de la malla global es una malla que no es conforme en las interfases entre las distintas mallas debido a las nuevas conectividades generadas sobre los nodos existentes. Los requerimientos de partida fueron que el método se implemente de forma implícita, sea válido para cualquier PDE y no implique ningún esfuerzo adicional ni perdida de eficiencia para el funcionamiento paralelo del código de altas prestaciones en el que ha sido implementado. Creemos que estas propiedades son las principales aportaciones de esta tesis dentro del marco de acoplamiento de mallas en mecánica computacional. A partir de estas premisas, hemos conseguido una herramienta automática e independiente de la topología para componer mallas. Es capaz de acoplar sin necesidad de intervención del usuario, mallas con solapamiento parcial o total así como mallas disjuntas con o sin "gap" entre ellas. También hemos visto que ofrece cierta flexibilidad en relación al tamaños relativos entre las mallas siendo un método válido como técnica de remallado local. Presentamos una descripción detallada de la implementación de esta técnica, llevada a cabo en un código de altas prestaciones de mecánica computacional en el contexto de elementos finitos, Alya. Se demostrarán todas las propiedades numéricas que ofrece el métodos a través de distintos problemas tipo benchmark y el método de la solución manufacturada. Finalmente se mostrarán los resultados en problemas complejos resueltos con el método HERMESH, que a su vez es una prueba de la gran flexibilidad que nos brinda.
102

Self-organized backpressure routing for the wireless mesh backhaul of small cells

Núñez Martínez, José 16 July 2014 (has links)
The ever increasing demand for wireless data services has given a starring role to dense small cell (SC) deployments for mobile networks, as increasing frequency re-use by reducing cell size has historically been the most effective and simple way to increase capacity. Such densification entails challenges at the Transport Network Layer (TNL), which carries packets throughout the network, since hard-wired deployments of small cells prove to be cost-unfeasible and inflexible in some scenarios. The goal of this thesis is, precisely, to provide cost-effective and dynamic solutions for the TNL that drastically improve the performance of dense and semi-planned SC deployments. One approach to decrease costs and augment the dynamicity at the TNL is the creation of a wireless mesh backhaul amongst SCs to carry control and data plane traffic towards/from the core network. Unfortunately, these lowcost SC deployments preclude the use of current TNL routing approaches such as Multiprotocol Label Switching Traffic Profile (MPLS-TP), which was originally designed for hard-wired SC deployments. In particular, one of the main problems is that these schemes are unable to provide an even network resource consumption, which in wireless environments can lead to a substantial degradation of key network performance metrics for Mobile Network Operators. The equivalent of distributing load across resources in SC deployments is making better use of available paths, and so exploiting the capacity offered by the wireless mesh backhaul formed amongst SCs. To tackle such uneven consumption of network resources, this thesis presents the design, implementation, and extensive evaluation of a self-organized backpressure routing protocol explicitly designed for the wireless mesh backhaul formed amongst the wireless links of SCs. Whilst backpressure routing in theory promises throughput optimality, its implementation complexity introduces several concerns, such as scalability, large end-to-end latencies, and centralization of all the network state. To address these issues, we present a throughput suboptimal yet scalable, decentralized, low-overhead, and low-complexity backpressure routing scheme. More specifically, the contributions in this thesis can be summarized as follows: We formulate the routing problem for the wireless mesh backhaul from a stochastic network optimization perspective, and solve the network optimization problem using the Lyapunov-driftplus-penalty method. The Lyapunov drift refers to the difference of queue backlogs in the network between different time instants, whereas the penalty refers to the routing cost incurred by some network utility parameter to optimize. In our case, this parameter is based on minimizing the length of the path taken by packets to reach their intended destination. Rather than building routing tables, we leverage geolocation information as a key component to complement the minimization of the Lyapunov drift in a decentralized way. In fact, we observed that the combination of both components helps to mitigate backpressure limitations (e.g., scalability,centralization, and large end-to-end latencies). The drift-plus-penalty method uses a tunable optimization parameter that weight the relative importance of queue drift and routing cost. We find evidence that, in fact, this optimization parameter impacts the overall network performance. In light of this observation, we propose a self-organized controller based on locally available information and in the current packet being routed to tune such an optimization parameter under dynamic traffic demands. Thus, the goal of this heuristically built controller is to maintain the best trade-off between the Lyapunov drift and the penalty function to take into account the dynamic nature of semi-planned SC deployments. We propose low complexity heuristics to address problems that appear under different wireless mesh backhaul scenarios and conditions...
103

Contributions to security and privacy protection in recommendation systems

Vera del Campo, Juan 29 October 2012 (has links)
A recommender system is an automatic system that, given a customer model and a set of available documents, is able to select and offer those documents that are more interesting to the customer. From the point of view of security, there are two main issues that recommender systems must face: protection of the users' privacy and protection of other participants of the recommendation process. Recommenders issue personalized recommendations taking into account not only the profile of the documents, but also the private information that customers send to the recommender. Hence, the users' profiles include personal and highly sensitive information, such as their likes and dislikes. In order to have a really useful recommender system and improve its efficiency, we believe that users shouldn't be afraid of stating their preferences. The second challenge from the point of view of security involves the protection against a new kind of attack. Copyright holders have shifted their targets to attack the document providers and any other participant that aids in the process of distributing documents, even unknowingly. In addition, new legislation trends such as ACTA or the ¿Sinde-Wert law¿ in Spain show the interest of states all over the world to control and prosecute these intermediate nodes. we proposed the next contributions: 1.A social model that captures user's interests into the users' profiles, and a metric function that calculates the similarity between users, queries and documents. This model represents profiles as vectors of a social space. Document profiles are created by means of the inspection of the contents of the document. Then, user profiles are calculated as an aggregation of the profiles of the documents that the user owns. Finally, queries are a constrained view of a user profile. This way, all profiles are contained in the same social space, and the similarity metric can be used on any pair of them. 2.Two mechanisms to protect the personal information that the user profiles contain. The first mechanism takes advantage of the Johnson-Lindestrauss and Undecomposability of random matrices theorems to project profiles into social spaces of less dimensions. Even if the information about the user is reduced in the projected social space, under certain circumstances the distances between the original profiles are maintained. The second approach uses a zero-knowledge protocol to answer the question of whether or not two profiles are affine without leaking any information in case of that they are not. 3.A distributed system on a cloud that protects merchants, customers and indexers against legal attacks, by means of providing plausible deniability and oblivious routing to all the participants of the system. We use the term DocCloud to refer to this system. DocCloud organizes databases in a tree-shape structure over a cloud system and provide a Private Information Retrieval protocol to avoid that any participant or observer of the process can identify the recommender. This way, customers, intermediate nodes and even databases are not aware of the specific database that answered the query. 4.A social, P2P network where users link together according to their similarity, and provide recommendations to other users in their neighborhood. We defined an epidemic protocol were links are established based on the neighbors similarity, clustering and randomness. Additionally, we proposed some mechanisms such as the use SoftDHT to aid in the identification of affine users, and speed up the process of creation of clusters of similar users. 5.A document distribution system that provides the recommended documents at the end of the process. In our view of a recommender system, the recommendation is a complete process that ends when the customer receives the recommended document. We proposed SCFS, a distributed and secure filesystem where merchants, documents and users are protected / Este documento explora c omo localizar documentos interesantes para el usuario en grandes redes distribuidas mediante el uso de sistemas de recomendaci on. Se de fine un sistema de recomendaci on como un sistema autom atico que, dado un modelo de cliente y un conjunto de documentos disponibles, es capaz de seleccionar y ofrecer los documentos que son m as interesantes para el cliente. Las caracter sticas deseables de un sistema de recomendaci on son: (i) ser r apido, (ii) distribuido y (iii) seguro. Un sistema de recomendaci on r apido mejora la experiencia de compra del cliente, ya que una recomendaci on no es util si es que llega demasiado tarde. Un sistema de recomendaci on distribuido evita la creaci on de bases de datos centralizadas con informaci on sensible y mejora la disponibilidad de los documentos. Por ultimo, un sistema de recomendaci on seguro protege a todos los participantes del sistema: usuarios, proveedores de contenido, recomendadores y nodos intermedios. Desde el punto de vista de la seguridad, existen dos problemas principales a los que se deben enfrentar los sistemas de recomendaci on: (i) la protecci on de la intimidad de los usuarios y (ii) la protecci on de los dem as participantes del proceso de recomendaci on. Los recomendadores son capaces de emitir recomendaciones personalizadas teniendo en cuenta no s olo el per l de los documentos, sino tambi en a la informaci on privada que los clientes env an al recomendador. Por tanto, los per les de usuario incluyen informaci on personal y altamente sensible, como sus gustos y fobias. Con el n de desarrollar un sistema de recomendaci on util y mejorar su e cacia, creemos que los usuarios no deben tener miedo a la hora de expresar sus preferencias. Para ello, la informaci on personal que est a incluida en los per les de usuario debe ser protegida y la privacidad del usuario garantizada. El segundo desafi o desde el punto de vista de la seguridad implica un nuevo tipo de ataque. Dado que la prevenci on de la distribuci on ilegal de documentos con derechos de autor por medio de soluciones t ecnicas no ha sido efi caz, los titulares de derechos de autor cambiaron sus objetivos para atacar a los proveedores de documentos y cualquier otro participante que ayude en el proceso de distribuci on de documentos. Adem as, tratados y leyes como ACTA, la ley SOPA de EEUU o la ley "Sinde-Wert" en España ponen de manfi esto el inter es de los estados de todo el mundo para controlar y procesar a estos nodos intermedios. Los juicios recientes como MegaUpload, PirateBay o el caso contra el Sr. Pablo Soto en España muestran que estas amenazas son una realidad.
104

A geometric routing scheme in word-metric spaces for data networks

Camelo Botero, Miguel Hernando 31 October 2014 (has links)
This research work explores the use of the Greedy Geometric Routing (GGR) schemes to solve the scalability problem of the routing systems in Internet-like networks and several families of Data Center architectures. We propose a novel and simple embedding of any connected finite graph into a Word-Metric space, i.e., a metric space generated by algebraic groups. Then, built on top of this greedy embedding, we propose three GGR schemes and we prove the theoretical upper bounds of the Routing Table size, vertex label size and stretch. The first scheme works for any kind of graph and the other two are specialized for Internet-like and several families of DC topologies / Este trabajo de investigación explora el uso de esquemas de Enrutamiento Geométrico Greedy (Greedy Geometric Routing o GGR) para resolver el problema de escalabilidad de los sistemas de encaminamiento de redes tipo Internet y de varias arquitecturas para Centros de Datos (Data Centers o DCs). Nosotros proponemos un nuevo y simple método de incrustación (embedding) de cualquier grafo finito y conectado en un espacio métrico de palabras (Word-Metric space), es decir, un espacio métrico generado por grupos algebraicos. Luego, construidos sobre esta incrustación, proponemos tres esquemas de GGR y derivamos los límites superiores teóricos de sus tablas de encaminamiento (Routing Table o RT), las etiquetas de los vértices y el stretch. El primer esquema trabaja sobre cualquier tipo de grafo y los otros dos son especializados para topologías tipo Internet y varias familias de arquitecturas de DCs
105

A method for the unified definition and treatment of conceptual schema quality issues

Aguilera Moncusí, David 06 June 2014 (has links)
The modern world is software-intensive. National infrastructures, smartphones and computers, health-care systems, e-commerce... everything is run by software. Therefore, developing high-quality software solutions is essential for our society. Conceptual modeling is an early activity of the software development process whose aim is to define the conceptual schema of a domain. As the role played by conceptual schemas in software development becomes more relevant---because of, for example, the emergence of model-driven approaches---, their quality becomes crucial too. The quality of a conceptual schema can be analyzed in terms of ``quality properties''. All conceptual schemas should have the fundamental properties of syntactic and semantic correctness, relevance and completeness, as well as any other quality property that has been proposed in the literature and that may be required or recommended in particular projects. It is a fact that only a few quality properties have been integrated into the development environments used by professionals and students, and thus enforced in the conceptual schemas developed by them. A possible explanation of this unfortunate fact may be that the proposals have been defined in the literature in disparate ways, which makes it difficult to integrate them into those environments. The goal of this thesis is to ease the integration of those quality properties that can be evaluated using the conceptual schema itself. We propose a method that permits the unified definition and treatment of conceptual schema quality issues, which we understand as ``important quality topics or problems for debate or discussion''. Our work includes, on the one hand, a characterization and formalization of conceptual schema quality issues, and, on the other hand, the creation of a catalog of quality issues obtained from the literature and defined using the aforementioned formalization. We also provide a prototype implementation of our method, which integrates the catalog of quality issues on top of a real modeling tool. This implementation provides assistance to conceptual modelers during the development of a conceptual schema in a non-disruptive manner. Moreover, our thesis discusses incremental methods for the efficient evaluation of OCL expressions in the context of quality issues and integrates one of them into our prototype tool. / El món actual funciona a través del programari. Les infraestructures nacionals, els ordinador i telèfons inte¿ligents, els sistemes de salut, de comerç electrònic... tot depèn del programari. És, doncs, per aquest motiu que cal dissenyar solucions de programari d'alta qualitat. La modelització conceptual és una de les etapes inicials en el procés de desenvolupament de programari. El seu objectiu és definir l'esquema conceptual d'un domini. A mesura que el rol que juguen els esquemes conceptuals esdevé més i més rellevants dins d'aquest context (degut a, per exemple, l'aparició de metodologies de disseny de programari dirigides per models), la seva qualitat també esdevé un requisit elemental. La qualitat d'un esquema conceptual es pot analitzar a través de diferents "propietats de qualitat". Així, tenim que tots els esquemes conceptuals haurien de satisfer les propietats fonamentals de correctesa sintàctica i semàntica, rellevància i completesa, així com altres propietats que s'han proposat a la literatura i que el projecte on s'estigui desenvolupant l'esquema requereixi o recomani. Malauradament, ens trobem que només algunes propietats de qualitat s'han integrat als entorns de desenvolupament que utilitzen els professionals i els estudiants i, per tant, les propietats que podem assegurar se satisfaran són poques. Una possible explicació d'aquest fet és que les propostes existents es defineixen de maneres força diferents, cosa que en dificulta la integració a aquests entorns. L'objectiu de la tesi és pa¿liar aquesta situació i simplificar la integració d'aquelles propietats de qualitat que avaluen un esquema conceptual utilitzant la informació disponible al propi esquema. El mètode que proposem permet la definició i el tractament unificat de "quality issues" per a la modelització conceptual, els quals entenem com "tot allò que pot ser rellevant considerar per assegurar la qualitat d'un esquema". La feina inclou, per una banda, la caraterització i formalizació dels "quality issues" i, per l'altra, la creació d'un catàleg d'issues disponibles a la literatura i expressats mitjançant la nostra formalizació. A més a més, la tesi també inclou la implementació d'un prototipus que demostra com funciona el mètode. El prototipus integra el catàleg de "quality issues" dins una eina de modelització conceptual real i permet assistir als modeladors durant el desenvolupament d'esquemes. Finalment, la nostra feina també ofereix una breu discussió sobre la importància que tenen els mètodes incrementals d'avaluació d'expressions OCL, com es poden adaptar a la nostra definició de "quality issues" i descriu la seva integració a l'eina prototipus que hem desenvolupat
106

Scalability in extensible and heterogeneous storage systems

Miranda Bueno, Alberto 26 September 2014 (has links)
The evolution of computer systems has brought an exponential growth in data volumes, which pushes the capabilities of current storage architectures to organize and access this information effectively: as the unending creation and demand of computer-generated data grows at an estimated rate of 40-60% per year, storage infrastructures need increasingly scalable data distribution layouts that are able to adapt to this growth with adequate performance. In order to provide the required performance and reliability, large-scale storage systems have traditionally relied on multiple RAID-5 or RAID-6 storage arrays, interconnected with high-speed networks like FibreChannel or SAS. Unfortunately, the performance of the current, most commonly-used storage technology-the magnetic disk drive-can't keep up with the rate of growth needed to sustain this explosive growth. Moreover, storage architectures based on solid-state devices (the successors of current magnetic drives) don't seem poised to replace HDD-based storage for the next 5-10 years, at least in data centers. Though the performance of SSDs significantly improves that of hard drives, it would cost the NAND industry hundreds of billions of dollars to build enough manufacturing plants to satisfy the forecasted demand. Besides the problems derived from technological and mechanical limitations, the massive data growth poses more challenges: to build a storage infrastructure, the most flexible approach consists in using pools of storage devices that can be expanded as needed by adding new devices or replacing older ones, thus seamlessly increasing the system's performance and capacity. This approach however, needs data layouts that can adapt to these topology changes and also exploit the potential performance offered by the hardware. Such strategies should be able to rebuild the data layout to accommodate the new devices in the infrastructure, extracting the utmost performance from the hardware and offering a balanced workload distribution. An inadequate data layout might not effectively use the enlarged capacity or better performance provided by newer devices, thus leading to unbalancing problems like bottlenecks or resource underusage. Besides, massive storage systems will inevitably be composed of a collection of heterogeneous hardware: as capacity and performance requirements grow, new storage devices must be added to cope with demand, but it is unlikely that these devices will have the same capacity or performance of those installed. Moreover, upon failure, disks are most commonly replaced by faster and larger ones, since it is not always easy (or cheap) to find a particular model of drive. In the long run, any large-scale storage system will have to cope with a myriad of devices. The title of this dissertation, "Scalability in Extensible and Heterogeneous Storage Systems", refers to the main focus of our contributions in scalable data distributions that can adapt to increasing volumes of data. Our first contribution is the design of a scalable data layout that can adapt to hardware changes while redistributing only the minimum data to keep a balanced workload. With the second contribution, we perform a comparative study on the influence of pseudo-random number generators in the performance and distribution quality of randomized layouts and prove that a badly chosen generator can degrade the quality of the strategy. Our third contribution is an an analysis of long-term data access patterns in several real-world traces to determine if it is possible to offer high performance and a balanced load with less than minimal data rebalancing. In our final contribution, we apply the knowledge learnt about long-term access patterns to design an extensible RAID architecture that can adapt to changes in the number of disks without migrating large amounts of data, and prove that it can be competitive with current RAID arrays with an overhead of at most 1.28% the storage capacity. / L'evolució dels sistemes de computació ha dut un creixement exponencial dels volums de dades, que porta al límit la capacitat d'organitzar i accedir informació de les arquitectures d'emmagatzemament actuals. Amb una incessant creació de dades que creix a un ritme estimat del 40-60% per any, les infraestructures de dades requereixen de distribucions de dades cada cop més escalables que puguin adaptar-se a aquest creixement amb un rendiment adequat. Per tal de proporcionar aquest rendiment, els sistemes d'emmagatzemament de gran escala fan servir agregacions RAID5 o RAID6 connectades amb xarxes d'alta velocitat com FibreChannel o SAS. Malauradament, el rendiment de la tecnologia més emprada actualment, el disc magnètic, no creix prou ràpid per sostenir tal creixement explosiu. D'altra banda, les prediccions apunten que els dispositius d'estat sòlid, els successors de la tecnologia actual, no substituiran els discos magnètics fins d'aquí 5-10 anys. Tot i que el rendiment és molt superior, la indústria NAND necessitarà invertir centenars de milions de dòlars per construir prou fàbriques per satisfer la demanda prevista. A més dels problemes derivats de limitacions tècniques i mecàniques, el creixement massiu de les dades suposa més problemes: la solució més flexible per construir una infraestructura d'emmagatzematge consisteix en fer servir grups de dispositius que es poden fer créixer bé afegint-ne de nous, bé reemplaçant-ne els més vells, incrementant així la capacitat i el rendiment del sistema de forma transparent. Aquesta solució, però, requereix distribucions de dades que es puguin adaptar a aquests canvis a la topologia i explotar el rendiment potencial que el hardware ofereix. Aquestes distribucions haurien de poder reconstruir la col.locació de les dades per acomodar els nous dispositius, extraient-ne el màxim rendiment i oferint una càrrega de treball balancejada. Una distribució inadient pot no fer servir de manera efectiva la capacitat o el rendiment addicional ofert pels nous dispositius, provocant problemes de balanceig com colls d¿ampolla o infrautilització. A més, els sistemes d'emmagatzematge massius estaran inevitablement formats per hardware heterogeni: en créixer els requisits de capacitat i rendiment, es fa necessari afegir nous dispositius per poder suportar la demanda, però és poc probable que els dispositius afegits tinguin la mateixa capacitat o rendiment que els ja instal.lats. A més, en cas de fallada, els discos són reemplaçats per d'altres més ràpids i de més capacitat, ja que no sempre és fàcil (o barat) trobar-ne un model particular. A llarg termini, qualsevol arquitectura d'emmagatzematge de gran escala estarà formada per una miríade de dispositius diferents. El títol d'aquesta tesi, "Scalability in Extensible and Heterogeneous Storage Systems", fa referència a les nostres contribucions a la recerca de distribucions de dades escalables que es puguin adaptar a volums creixents d'informació. La primera contribució és el disseny d'una distribució escalable que es pot adaptar canvis de hardware només redistribuint el mínim per mantenir un càrrega de treball balancejada. A la segona contribució, fem un estudi comparatiu sobre l'impacte del generadors de números pseudo-aleatoris en el rendiment i qualitat de les distribucions pseudo-aleatòries de dades, i provem que una mala selecció del generador pot degradar la qualitat de l'estratègia. La tercera contribució és un anàlisi dels patrons d'accés a dades de llarga duració en traces de sistemes reals, per determinar si és possible oferir un alt rendiment i una bona distribució amb una rebalanceig inferior al mínim. A la contribució final, apliquem el coneixement adquirit en aquest estudi per dissenyar una arquitectura RAID extensible que es pot adaptar a canvis en el número de dispositius sense migrar grans volums de dades, i demostrem que pot ser competitiva amb les distribucions ideals RAID actuals, amb només una penalització del 1.28% de la capacitat
107

Advanced interaction techniques for medical models

Monclús, Eva 15 July 2014 (has links)
Advances in Medical Visualization allows the analysis of anatomical structures with the use of 3D models reconstructed from a stack of intensity-based images acquired through different techniques, being Computerized Tomographic (CT) modality one of the most common. A general medical volume graphics application usually includes an exploration task which is sometimes preceded by an analysis process where the anatomical structures of interest are first identified. The main objective of this thesis is the improvement of the user experience in the analysis and exploration of medical datasets. This improvement involves the development of efficient algorithms designed both under a user-centered perspective and taking the new computing capabilities into account in order to obtain high quality results in real-time. On the analysis stage, we have focused on the identification of the bones at joints, which is particularly challenging because the bones are very close to each other and their boundaries become ambiguous in CT images. We have concentrated our efforts on reaching maximum automation of the overall process. The proposed algorithm uses an example mesh of the same bone that has to be segmented, usually from a different person, to drive the segmentation process. The algorithm is based on an energy minimization scheme to deform the initial example mesh while following the well-defined features of the volume data to be segmented in a local and adaptive way. We also present contributions on three different aspects of the exploration task: a best-view determination system and centering in virtual reality environments, a focus-and-context technique and a point selection method. In medical practice it would often be very useful to have access to a quick pre-visualization of the involved medical dataset. We have proposed a new system which allows users to obtain a set of representative views in a short time and permits the generation of inspection paths at almost no extra cost. The technique relies on the use of a multiscale entropy measure for the generation of good viewpoints and uses a complexity-based metric, the normalized compression distance, for the calculation of the representative views set. In the exploration of medical datasets, it is difficult to simultaneously visualize interior and exterior structures because the structures are commonly quite complex and it is easy to lose the context. We have developed a new interaction tool, the Virtual Magic Lantern, tailored to facilitate volumetric data inspection in a Virtual Reality environment. It behaves like a lantern whose illumination cone determines the region of interest. It addresses the occlusion management problem and facilitates the inspection of inner structures without the total elimination of the exterior structures, offering in this way, a focus+context-based visualization of the overall structures. Finally, the analysis of medical datasets may require the selection of 3D points for measurements involving anatomical structures. Although there are well-established 3D object selection techniques for polygonal models, there is a lack of techniques specifically developed for volume datasets. We present a new selection technique for Virtual Reality setups which allows users to easily select anchor points in non-necessarily segmented volume datasets rendered using Direct Volume Rendering. This new metaphor is based on the use of a ray emanating from the user, whose trajectory is enriched with its points of intersection with the on-the-fly determination of the isosurfaces along the ray path. Additionally, a visual feedback of the ray selection is offered through the use of two helper mirror views, in order to show occluded candidate points that would otherwise be invisible to the user without posterior and ad-hoc manipulation. / Els avenços en la investigació en el camp de Medical Visualization permeten l’anàlisi de models volumètrics tridimensionals d’estructures anatòmiques obtinguts a partir d’imatgesmèdiques capturades mitjançant diferents tècniques, essent la Tomografia Computeritzada (TC) una de lesmés habituals. Generalment, les aplicacions informàtiques d’ajuda al diagnòstic, la simulació, etc., permeten l’exploració interactiva d’aquest tipus de models, una tasca que pot anar precedida d’un procés d’identificació (segmentació) de les estructures anatòmiques per tal de possibilitar la seva exploració. L’objectiu d’aquesta tesi és millorar l’eficiència i l’experiència de l’usuari, tant de la tasca de segmentació com de l’exploració. Per tal d’assolir-ho s’han desenvolupat diversos algorismes; dissenyats sota una perspectiva centrada en l’usuari i fent servir els darrers avenços tecnològics de las targes gràfiques, el que ens permet obtenir resultats visuals de màxima qualitat en temps real. Respecte de la tasca de segmentació, ens hem centrat en el problema de la identificació d’ossos ubicats en articulacions, en models capturats mitjançant TC. La identificació d’aquests ossos pot arribar a ser molt feixuga i costosa fent servir les tècniques clàssiques de segmentació. La recerca realitzada en elmarc de la tesi s’ha enfocat en assolir la màxima automatització possible del procés sencer. La tècnica proposada empra una malla triangular d’exemple de l’os que es vol segmentar, que es fará servir per guiar tot el procés de segmentació. L’algorisme deforma de forma local i adaptativa aquesta malla, adaptant-la a la informació present en el model volumètric en les parts en que la seva frontera està definida de forma no ambigua, i respectant la forma original en les zones en les que el model presenta algun tipus d’incertesa en la definició de la frontera, ja sigui be perque l’estructura òssia apareix totalment unida a altres estructures òssies de l’articulació o be degut a que la informació capturada no presenta una frontera ben contrastada. Per altra banda, en la pràctica clínica pot ser de molta utilitat oferir a l’usuari una previsualització ràpida del model volumètric que ha d’inspeccionar. En aquesta tesi elaborem una nova tècnica que permet obtenir en un temps acceptable un conjunt de vistes representatives d’un model volumètric, així comla generació automàtica d’una animació a l’entorn del model que facilita a l’usuari una ràpida comprensió del mateix. La tècnica desenvolupada utilitza una formulació de l’entropia multiescala per la obtenció de bones vistes i la distància de compressió normalitzada, una mètrica del camp de la teoria de la complexitat, per establir el conjunt de vistes representatives. En l’exploració de models mèdics pot ser difícil la visualització simultània d’estructures internes i externes. Per abordar aquest problema s’ha desenvolupat una nova tècnica d’interacció anomenada Virtual Magic Lantern, pensada per a facilitar la inspecció d’aquests models en entorns de realitat virtual. Aquesta metàfora d’interacció es comporta com una llanterna. El seu feix de llum determina una regió d’interès del model, que serà visualitzada emprant una funció de transferència específica permetent la visualització de les estructures internes sense eliminar el context de tot el model. En l’anàlisi de modelsmédics pot ser necessària la selecció de punts concrets per a poder realitzar algun tipus de medició entre estructures anatòmiques. Depenent del algorisme de visualització del model, determinar quin punt exactament vol seleccionar l’usuari pot no tenir un resultat únic. Per solventar aquest problema, s’ha desenvolupat una nova metàfora d’interacció per entorns de realitat virtual, que permet la selecció de punts en un model volumètric no necessàriament segmentat. Aquesta tècnica es basa en l’ús d’un raig originat en la mà de l’usuari, sobre el que es visualitzen els punts d’intersecció amb les estructures anatòmiques que travessa. Donat que la superfície d’aquestes estructures no està explícitament definida, s’ha requerit desenvolupar especialment un càlcul ràpid i precís de les seves interseccions amb el raig. Per tal de facilitar la visió dels punts interiors a superfícies opaques i enriquir la visualització global, s’afegeix sobre dos plans auxiliars la visió del volum tallat garantint la visibilitat total del conjunt de punts. / Los avances en la investigación en el área de Medical Visualization permiten el análisis de modelos volumétricos tridimensionales de estructuras anatómicas, los cuales se obtienen a partir de imágenes médicas capturadas mediante diferentes técnicas de captación, siendo la Tomografía Computerizada (TC) una de las más frecuentes. Habitualmente, las aplicaciones informáticas orientadas al análisis de este tipo de modelos, bien sean para el soporte al diagnóstico, simuladores médicos o la planificación de procesos quirúrgicos, permiten la exploración interactiva de los modelos volumétricos. Dependiendo de las estructuras anatómicas que se precise analizar, puede ser necesario realizar un proceso de identificación (segmentación) de las estructuras anatómicas para posibilitar su posterior inspección. El objetivo principal de esta tesis ha consistido en el desarrollo de nuevas técnicas informáticas que mejoren la experiencia del usuario en los procesos tanto de segmentación como de exploración de un modelo volumétrico. Para alcanzar dicho objetivo, ha sido necesario el desarrollo de algoritmos eficientes diseñados teniendo particularmente en cuenta al usuario final y explotando los últimos avances en la tecnología de las tarjetas gráficas para poder obtener resultados visuales de la máxima calidad en tiempo real. En lo relativo al proceso de segmentación, nos hemos centrado en la identificación de las estructuras óseas ubicadas en articulaciones, en modelos capturadosmediante TC. La identificación de este tipo de estructuras usando los métodos tradicionales de segmentación puede llegar a ser muy tediosa, debido a que puede necesitarse mucha intervención por parte del usuario. La investigación llevada a cabo ha tenido como objetivo principal el maximizar el grado de automatización en el proceso de segmentación de este tipo de estructuras. La técnica propuesta parte de un ejemplo de la estructura ósea (malla triangular) que se quiere segmentar, generada a partir de los datos o bien de otra persona o bien de la misma persona en otras circunstancias. A partir de este ejemplo el algoritmo deforma la malla de manera local y adaptativa, adaptandola a la información presente en elmodelo volumétrico en aquellas zonas donde la frontera de la estructura está definida de forma no ambígua, y respetando la forma de la malla original en aquellas otras zonas en las cuales el modelo volumétrico presenta algún tipo de incertidumbre en la definición de la frontera, ya sea porque la estructura ósea aparece totalmente unida a otras estructuras óseas de la articulación o debido a que la información capturada no presenta una frontera bien contrastada. En lo relativo al proceso de exploración, esta tesis presenta resultados en dos vertientes distintas. Por un lado, la generación automática de una previsualización del modelo volumétrico y por el otro lado, el desarrollo de nuevas técnicas de interacción que faciliten la exploración de modelos volumétricos en entornos de realidad virtual. Ofrecer al usuario una previsualización rápida del modelo volumétrico que ha de inspeccionar, puede ser de mucha utilidad en la práctica clínica. En esta tesis elaboramos un nuevo sistema que permite obtener en un tiempo razonable un conjunto de vistas representativas del modelo volumétrico, así como la generación de una animación alrededor del modelo que facilita al usuario una rápida comprensión del mismo. Las técnicas desarrolladas se basan en el uso de la entropía multiescala para el cálculo de vistas informativas del modelo volumétrico. A partir del conjunto de vistas calculadas y mediante el uso de la distancia de compresión normalizada, una métrica de Teoría de la Complejidad, se puede calcular un subconjunto de vistas representativas del modelo volumétrico. Por otro lado, en la exploración de modelos volumétricos puede ser difícil visualizar simultáneamente estructuras anatómicas internas y externas. Esto es debido a que las estructuras son bastantes complejas, y es fácil perder la referencia respecto a otras estructuras anatómicas. En esta tesis se ha desarrollado una nueva técnica de interacción, bautizada como VirtualMagic Lantern, orientada a facilitar la inspección de modelos volumétricos en entornos de realidad virtual. Esta nueva metáfora de interacción se comporta como una linterna de mano guiada por el usuario, cuyo haz de luz define sobre el modelo volumétrico una región de interés. Esta región de interés será visualizada utilizando una función de transferencia diferente a la usada para el resto del modelo, posibilitando de esta manera la inspección de estructuras internas sin eliminar totalmente el resto delmodelo. En el análisis de modelos médicos puede ser necesaria la selección de puntos concretos para poder realizar algún tipo de medición entre estructuras anatómicas. Dependiendo del tipo de visualización del modelo, determinar qué punto exactamente quiere seleccionar el usuario puede no tener un resultado único. Para solucionar este problema, se presenta una nuevametáfora de interacción en entornos de realidad virtual para la selección de puntos anatómicos de un modelo volumétrico no necesariamente segmentado. Esta técnica se basa en el uso de un rayo originado en la mano del usuario, sobre el que son visualizados los puntos de intersección de las estructuras anatómicas que atraviesa. Dado que la superficie de estas estructuras anatómicas no está explícitamente representada en el modelo volumétrico, se ha requerido desarrollar un cálculo preciso y rápido de la intersección del rayo con estas estructuras. Para ofrecer una visualización de los puntos calculados sin ningún tipo de oclusión por parte de las estructuras anatómicas existentes en el modelo, se ha añadido a la visualización global la visualización de dos paneles auxiliares en los cuales se muestra el mismo modelo volumétrico recortado de tal manera que sean completamente visibles el conjunto de los puntos. De esta forma, se facilita al usuario la selección de los puntos calculados sin tener que realizar ningún tipo de manipulación del modelo para poder obtener una visualización en la que los puntos calculados sean visibles.
108

Structural and computational aspects of simple and influence games

Riquelme Csori, Fabián 29 July 2014 (has links)
Simple games are a fundamental class of cooperative games. They have a huge relevance in several areas of computer science, social sciences and discrete applied mathematics. The algorithmic and computational complexity aspects of simple games have been gaining notoriety in the recent years. In this thesis we review different computational problems related to properties, parameters, and solution concepts of simple games. We consider different forms of representation of simple games, regular games and weighted games, and we analyze the computational complexity required to transform a game from one representation to another. We also analyze the complexity of several open problems under different forms of representation. In this scenario, we prove that the problem of deciding whether a simple game in minimal winning form is decisive (a problem that is associated to the duality problem of hypergraphs and monotone Boolean functions) can be solved in quasi-polynomial time, and that this problem can be polynomially reduced to the same problem but restricted to regular games in shift-minimal winning form. We also prove that the problem of deciding wheter a regular game is strong in shift-minimal winning form is coNP-complete. Further, for the width, one of the parameters of simple games, we prove that for simple games in minimal winning form it can be computed in polynomial time. Regardless of the form of representation, we also analyze counting and enumeration problems for several subfamilies of these games. We also introduce influence games, which are a new approach to study simple games based on a model of spread of influence in a social network, where influence spreads according to the linear threshold model. We show that influence games capture the whole class of simple games. Moreover, we study for influence games the complexity of the problems related to parameters, properties and solution concepts considered for simple games. We consider extremal cases with respect to demand of influence, and we show that, for these subfamilies, several problems become polynomial. We finish with some applications inspired on influence games. The first set of results concerns to the definition of collective choice models. For mediation systems, several of the problems of properties mentioned above are polynomial-time solvable. For influence systems, we prove that computing the satisfaction (a measure equivalent to the Rae index and similar to the Banzhaf value) is hard unless we consider some restrictions in the model. For OLFM systems, a generalization of OLF systems (van den Brink et al. 2011, 2012) we provide an axiomatization of satisfaction. The second set of results concerns to social network analysis. We define new centrality measures of social networks that we compare on real networks with some classical centrality measures. / Los juegos simples son una clase fundamental de juegos cooperativos, que tiene una enorme relevancia en diversas áreas de ciencias de la computación, ciencias sociales y matemáticas discretas aplicadas. En los últimos años, los distintos aspectos algorítmicos y de complejidad computacional de los juegos simples ha ido ganando notoriedad. En esta tesis revisamos los distintos problemas computacionales relacionados con propiedades, parámetros y conceptos de solución de juegos simples. Primero consideramos distintas formas de representación de juegos simples, juegos regulares y juegos de mayoría ponderada, y estudiamos la complejidad computacional requerida para transformar un juego desde una representación a otra. También analizamos la complejidad de varios problemas abiertos bajo diferentes formas de representación. En este sentido, demostramos que el problema de decidir si un juego simple en forma ganadora minimal es decisivo (un problema asociado al problema de dualidad de hipergrafos y funciones booleanas monótonas) puede resolverse en tiempo cuasi-polinomial, y que este problema puede reducirse polinomialmente al mismo problema pero restringido a juegos regulares en forma ganadora shift-minimal. También demostramos que el problema de decidir si un juego regular en forma ganadora shift-minimal es fuerte (strong) es coNP-completo. Adicionalmente, para juegos simples en forma ganadora minimal demostramos que el parámetro de anchura (width) puede computarse en tiempo polinomial. Independientemente de la forma de representación, también estudiamos problemas de enumeración y conteo para varias subfamilias de juegos simples. Luego introducimos los juegos de influencia, un nuevo enfoque para estudiar juegos simples basado en un modelo de dispersión de influencia en redes sociales, donde la influencia se dispersa de acuerdo con el modelo de umbral lineal (linear threshold model). Demostramos que los juegos de influencia abarcan la totalidad de la clase de los juegos simples. Para estos juegos también estudiamos la complejidad de los problemas relacionados con parámetros, propiedades y conceptos de solución considerados para los juegos simples. Además consideramos casos extremos con respecto a la demanda de influencia, y probamos que para ciertas subfamilias, varios de estos problemas se vuelven polinomiales. Finalmente estudiamos algunas aplicaciones inspiradas en los juegos de influencia. El primer conjunto de estos resultados tiene que ver con la definición de modelos de decisión colectiva. Para sistemas de mediación, varios de los problemas de propiedades mencionados anteriormente son polinomialmente resolubles. Para los sistemas de influencia, demostramos que computar la satisfacción (una medida equivalente al índice de Rae y similar al valor de Banzhaf) es difícil a menos que consideremos algunas restricciones en el modelo. Para los sistemas OLFM, una generalización de los sistemas OLF (van den Brink et al. 2011, 2012) proporcionamos una axiomatización para la medida de satisfacción. El segundo conjunto de resultados se refiere al análisis de redes sociales, y en particular con la definición de nuevas medidas de centralidad de redes sociales, que comparamos en redes reales con otras medidas de centralidad clásicas
109

Network traffic classification : from theory to practice

Carela Español, Valentín 31 October 2014 (has links)
Since its inception until today, the Internet has been in constant transformation. The analysis and monitoring of data networks try to shed some light on this huge black box of interconnected computers. In particular, the classification of the network traffic has become crucial for understanding the Internet. During the last years, the research community has proposed many solutions to accurately identify and classify the network traffic. However, the continuous evolution of Internet applications and their techniques to avoid detection make their identification a very challenging task, which is far from being completely solved. This thesis addresses the network traffic classification problem from a more practical point of view, filling the gap between the real-world requirements from the network industry, and the research carried out. The first block of this thesis aims to facilitate the deployment of existing techniques in production networks. To achieve this goal, we study the viability of using NetFlow as input in our classification technique, a monitoring protocol already implemented in most routers. Since the application of packet sampling has become almost mandatory in large networks, we also study its impact on the classification and propose a method to improve the accuracy in this scenario. Our results show that it is possible to achieve high accuracy with both sampled and unsampled NetFlow data, despite the limited information provided by NetFlow. Once the classification solution is deployed it is important to maintain its accuracy over time. Current network traffic classification techniques have to be regularly updated to adapt them to traffic changes. The second block of this thesis focuses on this issue with the goal of automatically maintaining the classification solution without human intervention. Using the knowledge of the first block, we propose a classification solution that combines several techniques only using Sampled NetFlow as input for the classification. Then, we show that classification models suffer from temporal and spatial obsolescence and, therefore, we design an autonomic retraining system that is able to automatically update the models and keep the classifier accurate along time. Going one step further, we introduce next the use of stream-based Machine Learning techniques for network traffic classification. In particular, we propose a classification solution based on Hoeffding Adaptive Trees. Apart from the features of stream-based techniques (i.e., process an instance at a time and inspect it only once, with a predefined amount of memory and a bounded amount of time), our technique is able to automatically adapt to the changes in the traffic by using only NetFlow data as input for the classification. The third block of this thesis aims to be a first step towards the impartial validation of state-of-the-art classification techniques. The wide range of techniques, datasets, and ground-truth generators make the comparison of different traffic classifiers a very difficult task. To achieve this goal we evaluate the reliability of different Deep Packet Inspection-based techniques (DPI) commonly used in the literature for ground-truth generation. The results we obtain show that some well-known DPI techniques present several limitations that make them not recommendable as a ground-truth generator in their current state. In addition, we publish some of the datasets used in our evaluations to address the lack of publicly available datasets and make the comparison and validation of existing techniques easier.
110

Modelo para el diseño de sistemas gestores de workflows con funcionalidades colaborativas, cloud y móviles

Castelán Maldonado, Edgar 21 October 2014 (has links)
This research was developed in the context of WFMS (Workflow Management Systems), mobile applications, cloud computing, and collaborative systems. Currently the design of WFMS is based on the reference model proposed by the WfMC (Workflow Management Coalition). The problem that exists today in the design and development of WfMS is that the reference model proposed by the WfMC was designed many years before the rise of mobile technologies, cloud computing and collaborative systems. It is important to create a new model for the design of WfMS taking in to account the new technological features and functionalities offered by mobile devices, collaborative and cloud computing services along with new paradigms of collaboration that can occur when using these technological solutions. This research has the general objective of obtain a model for the design of WfMS with Collaborative, Cloud and Mobile functionalities. For the development of this research we use the design - science research paradigm used in the research field of information systems. Is fully oriented to the solution of problems and has as a main goal the development and evaluation of artifacts that serve for a practical purpose, these artifacts must be completely relevant and novel in its application environment. The steps that were undertaken in order to carry out this research with the design - science methodology were: 1) A problem in the field of WfMS was identified. 2) The features the artifact should have in order to solve the problem were proposed, and also how the artifact would be represented in this case as a model. 3) The design processes that should be used to build the device were identified and proposed. 4) The artifact and the design process were theoretically justified with methodologies and models widely accepted in the field of information systems. 5) During the design cycle a model for evaluating software architectures was applied. 6) In order to introduce the artifact in the field of application we have carried out an implementation of the model resulting in a WfMS mobile application with collaborative, cloud and mobile functionalities. We have conducted a Delphi study in order to assess the functionalities of the new artifact and demonstrate its utility in its field of application. 7) The result of this research adds to the knowledge base a new model for the design and development of WfMS with collaborative, cloud and mobile functionalities. An article with the results of this research was published and presented to the scientific community. 8) The main objective and all the objectives in this research have been satisfactorily completed, this research has proved that the designed artifact solves the problem proposed in this research and that the artifact provides utility in the field of WfMS. This research propose a new methodology for conducting a Delphi study using the WfMS mobile application that was developed in this research. Each one of the Delphi questionnaires are made through a Wokflow and the use of cloud collaborative tools in order to store both the questionnaires as well as the results of the evaluation of the questionnaires. This research makes the following contributions: a model for the design of WfMS with collaborative, cloud and mobile functionalities. A Concrete Architecture as a result of implementing the new model. A Software Architecture for the development of WfMS as a result of implementing the Concrete Architecture. A WfMS mobile application for the iOS platform as a result of the implementation of the software architecture. A methodology for conducting a Delphi study using a WfMS mobile application with cloud collaborative tools. / Este trabajo de investigación se desarrolla en el contexto de WfMS (Workflow Management Systems), aplicaciones móviles, cloud computing y sistemas colaborativos. Actualmente el diseño de WfMS está basado en el modelo de referencia propuesto por la WfMC (Workflow Management Coalition). Actualmente el diseño y desarrollo de WfMS sigue el modelo de referencia propuesto por la WfMC, que fue diseñado con anterioridad a que surgierán las tecnologías móviles, cloud computing y los sistemas colaborativos. Es importante crear un nuevo modelo para el diseño de WfMS que tenga en cuenta las nuevas características y funcionalidades tecnológicas que ofrecen los dispositivos móviles, los servicios colaborativos y de cloud computing, junto con los nuevos paradigmas de colaboración que se pueden dar al utilizar estas soluciones tecnológicas. Esta investigación tiene como objetivo principal el proponer un modelo para el diseño de WfMS con funcionalidades Colaborativas, Cloud y Móviles. Para el desarrollo de esta investigación utilizamos el paradigma de investigación Diseño-Ciencia utilizado en el campo de investigación de los sistemas de información. Los pasos que se llevaron a cabo para realizar la investigación con la metodología diseño-ciencia, fueron los siguientes: 1) Se identifica un problema en el ámbito de los WfMS. 2) Se propusieron las características que debía tener el artefacto que se necesitaba para solucionar el problema y se seleccionó la forma en que iba a ser representado el artefacto, en este caso un modelo. 3) Se identificaron y propusieron los procesos de diseño que deberían ser utilizados para construir el artefacto. 4) Se justificó teóricamente, con metodologías y modelos ampliamente aceptados en el campo de sistemas de información, el artefacto y el proceso de diseño. 5) Durante el ciclo de diseño hemos utilizado un modelo de evaluación de arquitecturas de software. 6) Con la finalidad de introducir el artefacto dentro del campo de aplicación hemos realizado una implementación del modelo dando como resultado final una aplicación móvil de WfMS con funcionalidades colaborativas, cloud y móviles. Hemos llevado a cabo un estudio Delphi para evaluar las funcionalidades del nuevo artefacto y demostrar su utilidad en su campo de aplicación. 7) El resultado de esta investigación añade a la base de conocimiento un nuevo modelo que sirve para el diseño y desarrollo de WfMS con funcionalidades colaborativas, cloud y móviles. Se ha escrito un artículo para la comunidad científica donde se publican los resultados de esta investigación. 8) El objetivo principal y todos los objetivos propuestos en esta investigación se han cumplido satisfactoriamente, hemos logrado demostrar que el artefacto diseñado resuelve el problema planteado en esta investigación y que este artefacto provee utilidad en el campo de los WfMS. En esta investigación se presenta una nueva metodología para realizar un estudio Delphi mediante el uso de la aplicación móvil de WfMS que fue desarrollada en esta investigación. Cada uno de los cuestionarios del estudio Delphi se hicieron a través de un Wokflow y se hizo uso de herramientas colaborativas en la nube para almacenar tanto los cuestionarios así como también los resultados de la evaluación de los cuestionarios. Esta investigación hace las siguientes aportaciones: un modelo para el diseño de WfMS con funcionalidades colaborativas, cloud y móviles. Una Arquitectura Concreta resultado de la implementación del nuevo modelo. Una Arquitectura de Software para el desarrollo de WfMS resultado de la implementación de la Arquitectura Concreta. Una aplicación móvil de WfMS para la plataforma iOS y dispositivos iPad resultado de la implementación de la arquitectura de software. Una metodología para realizar un estudio Delphi utilizando una aplicación móvil de WfMS con herramientas colaborativas en la nube.

Page generated in 0.0683 seconds