• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Wireless multimedia sensor networks, security and key management

Almalkawi, Islam 23 July 2013 (has links)
Wireless Multimedia Sensor Networks (WMSNs) have emerged and shifted the focus from the typical scalar wireless sensor networks to networks with multimedia devices that are capable to retrieve video, audio, images, as well as scalar sensor data. WMSNs are able to deliver multimedia content due to the availability of inexpensive CMOS cameras and microphones coupled with the significant progress in distributed signal processing and multimedia source coding techniques. These mentioned characteristics, challenges, and requirements of designing WMSNs open many research issues and future research directions to develop protocols, algorithms, architectures, devices, and testbeds to maximize the network lifetime while satisfying the quality of service requirements of the various applications. In this thesis dissertation, we outline the design challenges of WMSNs and we give a comprehensive discussion of the proposed architectures and protocols for the different layers of the communication protocol stack for WMSNs along with their open research issues. Also, we conduct a comparison among the existing WMSN hardware and testbeds based on their specifications and features along with complete classification based on their functionalities and capabilities. In addition, we introduce our complete classification for content security and contextual privacy in WSNs. Our focus in this field, after conducting a complete survey in WMSNs and event privacy in sensor networks, and earning the necessary knowledge of programming sensor motes such as Micaz and Stargate and running simulation using NS2, is to design suitable protocols meet the challenging requirements of WMSNs targeting especially the routing and MAC layers, secure the wirelessly exchange of data against external attacks using proper security algorithms: key management and secure routing, defend the network from internal attacks by using a light-weight intrusion detection technique, protect the contextual information from being leaked to unauthorized parties by adapting an event unobservability scheme, and evaluate the performance efficiency and energy consumption of employing the security algorithms over WMSNs.
302

Experimental design and verification of a centralized controller for irrigation canals

Bonet Gil, Enrique 26 March 2015 (has links)
This thesis aims to develop a predictive control for irrigation canals to improve the management of water resources. Water is necessary for life and it is a scarce good that we need for drinking, in the agriculture, etc. At the same time, it can constitute a serious threat in particular areas due to the difficulty to grow foods by the increasing of prolonged droughts. The agriculture holds an important part of the food chain and the water resources for agriculture are important, the problem is the water transport systems present low efficiencies in practice. The yield agriculture has to be optimized, because the goal of an operational water manager is to deliver the water to the irrigation sites accurately and efficiently. To improve the efficiency of the water transport systems is necessary to invest in automating the operation of irrigation canals. In order to fulfill these objectives, we define an overall control diagrams scheme in chapter 5 which splits the management of the canal control in different blocks. The management of a canal start from setting the demand delivery accurately taking into account the crops necessities during an irrigation cycle and establishing the gate trajectories for controlling the canal in each time step. In an ideal case, the system would be controlled but some factors which could deviated the desired state for the canal from the real canal state, as for instance, a disturbance introduced into the canal. In that circumstances, it would be necessary to introduce in our overall control diagram, other algorithms which could aid the watermaster to restore the desired state of the canal. These algorithms, developed and tested for us, are the CSI and GoRoSoBo algorithms. The first one defines a powerful tool in the management of a canal. The Watermaster establishes the gates positions and fixes the desired water level at checkpoints to fulfill a scheduled demand. In that sense, when someone introduce a disturbance into the canal perturbs the water level at checkpoints, so the scheduled deliveries cannot fulfilled by the watermaster. In such case, the water level measurements at these checkpoints could be sent to the CSI algorithms which calculates the real extracted flow and the current canal state along the canal, that is, the water level and velocity in all cross-sections of the canal. This task is performed by the CSI algorithm which has been designed in this thesis and tested in numerous numerical examples (chapter 7) and experimentally in a laboratory canal of the Technical University of Catalonia (chapter 8). The last one is the essential tool in the management of a canal, that is, a control algorithm operating in real-time. The GoRoSoBo algorithm (Gómez, Rodellar, Soler, Bonet) is a feedback control algorithm which calculates the optimum gates trajectories for a predictive horizon taking into account the current canal state obtained by CSI as well as the scheduled demands and the previous gate trajectories. GoRoSoBo has been designed in this thesis and tested in several numerical examples (chapter 10) as the Test-Case proposed by the ASCE Task Committee on Canal Automation Algorithms (chapter 11). In that sense, we propose a centralized control performance to manage the canal control. In addition to these two main contributions, many other smaller developments, minor results and practical recommendations for irrigation canal automation are presented throughout this thesis. / Aquesta tesi té com a objectiu principal desenvolupar un control predictiu per a canals de reg i d'aquesta manera fer una aportació a la gestió dels recursos hídrics. L'aigua és un bé escàs i necessari per a la vida. És un recurs que fem un ús habitual d'ell, per consum propi, a la industria, com a font d'energia, a la agricultura.... .Un recurs tan preuat en zones amb escassetat per sequeres prologades constitueix un problema important, ja que afecta al desenvolupament de la zona. Concretament al sector de la agricultura pot provocar una davallada dels cultius i la incapacitat de cobrir les necessitats de la zona. L'agricultura és una part important de la cadena alimentària i els recursos hídrics per a l'agricultura són imprescindibles. Un greu problema a la agricultura son els baixos rendiments dels cultius moltes vegades relacionats amb sistemes de transport d'aigua poc eficients. La gestió dels recursos hídrics ha de ser optimitzada per obtenir rendiments competitius, ja que l'objectiu d'un gestor d'aigua és lliurar l'aigua de reg amb precisió i eficiència. Per millorar l'eficiència dels sistemes de transport d'aigua és necessari invertir en l'automatització dels canals de reg. Per complir aquests objectius, es defineix un esquema general de control al capítol 5, que divideix la gestió del control de canal en diferents blocs. La gestió d'un canal de reg s'inicia amb la programació de les demandes hídriques dels agricultors tenint en compte les necessitats dels diferents cultius durant un cicle de reg. Amb aquesta informació el watermaster tindria que establir les trajectòries de comporta o les accions de control per lliurar les demanades hídriques requerides als diferents punts del canal. En un cas ideal, el sistema seria controlat però a la realitat alguns factors externs podrien desviar l'estat desitjat del real, com per exemple extraccions de cabal desconeguts. En aquest cas, caldria introduir en el nostre diagrama general de control, altres algoritmes que podrien ajudar al WaterMaster a restablir l'estat desitjat. Aquests algoritmes, desenvolupats i testejats per nosaltres, són els algoritmes CSI i GoRoSoBo. CSI defineix una poderosa eina en la gestió d'un canal. El Watermaster estableix les posicions de les comportes i fixa el nivell d'aigua desitjat per complir amb les demandes hídriques programades en diferent punts del canal. En aquest sentit, quan algú introdueix una pertorbació altera el nivells de l'aigua al llarg del canal modificant els lliuraments programats inicialment de tal manera que no es podrien complir. En aquest cas, les mesures dels nivells d'aigua en diferents punts de control podrien ser enviats al algoritme CSI que tenint en compte aquest informació, les trajectòries de comporta i les demandes previstes calcularia el caudal real extret per les estructures de control i l'estat hidrodinàmic del canal, és a dir, el nivell de l'aigua i la velocitat en totes les seccions del canal. Aquesta tasca es duu a terme mitjançant l'algorisme CSI que ha estat dissenyat en aquesta tesi i provat en nombrosos exemples numèrics (capítol 7) i experimentalment en un canal de laboratori de la Universitat Politècnica de Catalunya (capítol 8). L'altre algorisme (GoRoSoBo) és l'eina essencial en la gestió d'un canal, és a dir, un algoritme de control que opera en temps real. GoRoSoBo (Gómez, Rodellar, Soler, Bonet) és un algorisme de control de retroalimentació (feedback) que calcula les trajectòries de comporta òptimes per un horitzó de predicció tenint en compte l'estat hidrodinàmic del canal en el moment actual i els caudals reals d'extracció obtinguts per CSI, així com les demandes programades i les trajectòries de comporta anteriors. GoRoSoBo ha estat dissenyat en aquesta tesi i provat en diversos exemples numèrics (capítol 10), així com als casos de prova proposats pel ASCE (Clemmens et a., 1998) (capítol 11) amb resultats excel·lents
303

Wake-up radio systems : design, development, performance evaluation and comparison to conventional medium access control protocols for wireless sensor networks

Oller i Bosch, Joaquim 06 March 2015 (has links)
During the recent years, the research related to Wake-up Radio (WuR) systems has gained noticeable interest. In WuR systems, a node initiating a communication first sends a Wake-up Call (WuC) by means of its Wake-up Transmitter (WuTx), to the Wake-up Receiver (WuRx) of a remote node to activate it in an on-demand manner. Until the reception of the WuC, the node's MCU and main data transceiver are in sleep mode. Hence, WuR drastically reduce the power required by wireless nodes. This thesis provides a complete analysis of several WuR designs vs. conventional MAC protocols for Wireless Sensor Networks (WSN). The research is performed in an incremental fashion and includes hardware, softwar and simulation topics. WuR systems enable energy savings in plenty of different applications, e.g., retrieving information from environmental pollution sensors placed in a city by a mobile collector node, or activating a sleeping wireless AP. They are easy to program in and provide implicit synchronization. However, achieving a good WuRx design may become a challenge because power amplifiers cannot be used for the sake of energy. The system proposed in chapter 2 is a successful WuR system prototype. The so-called SµA-WuRx is less complex than commercial WuR systems, it is cheaper from the monetary point of view, requires several times less energy and allows for up to 15 meters of communication, an adequate value for WuR systems. However, the system can be improved by including several desirable features, such as longer operational ranges and/or addressing mechanisms. The so-called Time-Knocking (TicK) addressing strategy, analyzed in chapter 3, enables energy efficient node addressing by varying the time between WuCs received by a MCU. TicK allows for variable length addresses and multicast. A WuR system may not fit any possible application. Thus, while the SµA-WuRx and TicK efficiently solved many of the requirements of single-hop and data-collector applications, they lack of flexibility. Instead, SCM-WuR systems in chapter 4 feature an outstanding trade-off between hardware complexity, current consumption and operational range, and even enable multi-hop wake-up for long remote sensor measure collection. To contextualize the WuR systems developed, chapter 5 provides an overview of the most important WuR systems as of 2014. Developing a MAC protocol which performs acceptably in a wide range of diverse applications is a very difficult task. Comparatively, SCM-WuR systems perform properly in all the use cases (single and multi-hop) presented in chapter 6. Bluetooth Low Energy, or BLE, appears as a duty-cycled MAC protocol mainly targeting single-hop applications. Because of its clearly defined use cases and its integration with its upper application layers, BLE appears as an extremely energy-efficient protocol that cannot be easily replaced by WuR. Because of all these aspects, the performance of BLE is analyzed in chapter 7. Finally, chapter 8 tries to solve one of the issues affecting WuR systems, that is, the need for extra hardware. While this issue seems difficult to solve for WuRx, the chapter provides ideas to use IEEE 802.11-enabled devices as WuTx. / Durant els últims anys, la investigació relativa als sistemes de Ràdios de Wake-up (de l'anglès Wake-up Radio, WuR) ha experimentat un interès notable. En aquests sistemes, un node inicia la comunicació inal.làmbrica transmetent una Wake-up Call (WuC), per mitjà del seu transmissor de Wake-up (WuTx), dirigida al receptor de Wake-up (WuRx) del node remot. Aquesta WuC activa el node remot, el microcontrolador (MCU) i la ràdio principals del qual han pogut romandre en mode "sleep" fins el moment. Així doncs, els sistemes WuR permeten un estalvi dràstic de l'energia requerida pels nodes sense fils. Aquesta tesi proposa diferents sistemes WuR i els compara amb protocols MAC existents per a xarxes de sensors sense fils (Wireless Sensor Networks, WSN). La investigació es realitza de forma progressiva i inclou hardware, software i simulació. Els sistemes WuR permeten un estalvi energètic notable en moltes aplicacions: recol¿lecció d'informació ambiental, activació remota de punts d'accés wi-fi, etc. Són fàcils de programar en software i comporten una sincronització implícita entre nodes. Malauradament, un consum energètic mínim impossibilita l'ús d'amplificadors de potència, i dissenyar-los esdevé un repte. El sistema presentat en el capítol 2 és un prototip exitós de sistema WuR. De nom SµA-WuR, és més senzill que alternatives comercials, és més econòmic, requereix menys energia i permet distàncies de comunicació WuR majors, de fins a 15 metres. L'estratègia d'adreçament Time-KnocKing, presentada en el capítol 3, permet dotar l'anterior SµA-WuR d'una forma d'especificar el node adreçat, permetent estalvi energètic a nivell de xarxa. TicK opera codificant el temps entre diferents WuC. Depenent del temps entre intervals, es desperten el/s node/s desitjats d'una forma extremadament eficient. Tot i els seus beneficis, hi ha aplicacions no implementables amb el sistema SµA-WuR. Per a aquest motiu, en el capítol 4 es presenta el sistema SCM-WuR, que ofereix un rang d'operació de 40 a 100 metres a canvi d'una mínima complexitat hardware afegida. SCM-WuR cobreix el ventall d'aplicacions del sistema SµA-WuRx, i també les que requereixen multi-hop a nivell WuR. El capítol 5 de la tesi compara els dos sistemes WuR anteriors vers les propostes més importants fins el 2014. El capítol 6 inclou un framework de simulació complet amb les bases per a substituir els sistemes basats en duty-cycling a WuR. Degut a que desenvolupar un protocol MAC que operi acceptablement bé en multitud d'aplicacions esdevé una tasca pràcticament impossible, els sistemes WuR presentats amb anterioritat i modelats en aquest capítol representen una solució versàtil, interessant i molt més eficient des del punt de vista energètic. Bluetooth Low Energy, o Smart, o BLE, representa un cas d'aplicació específica on, degut a la gran integració a nivell d'aplicació, la substitució per sistemes de WuR esdevé difícil Per a aquesta raó, i degut a que es tracta d'un protocol MAC extremadament eficient energèticament, aquesta tesi conté una caracterització completa de BLE en el capítol 7. Finalment, el capítol 8 soluciona un dels inconvenients del sistemes WuR, el disseny de WuTx específics, presentant una estratègia per a transformar qualsevol dispositiu IEEE 802.11 en WuTx.
304

From pixels to gestures: learning visual representations for human analysis in color and depth data sequences

Hernández-Vela, Antonio 09 March 2015 (has links)
The visual analysis of humans from images is an important topic of interest due to its relevance to many computer vision applications like pedestrian detection, monitoring and surveillance, human-computer interaction, e-health or content-based image retrieval, among others. In this dissertation in learning different visual representations of the human body that are helpful for the visual analysis of humans in images and video sequences. To that end, we analyze both RCB and depth image modalities and address the problem from three different research lines, at different levels of abstraction; from pixels to gestures: human segmentation, human pose estimation and gesture recognition. First, we show how binary segmentation (object vs. background) of the human body in image sequences is helpful to remove all the background clutter present in the scene. The presented method, based on “Graph cuts” optimization, enforces spatio-temporal consistency of the produced segmentation masks among consecutive frames. Secondly, we present a framework for multi-label segmentation for obtaining much more detailed segmentation masks: instead of just obtaining a binary representation separating the human body from the background, finer segmentation masks can be obtained separating the different body parts. At a higher level of abstraction, we aim for a simpler yet descriptive representation of the human body. Human pose estimation methods usually rely on skeletal models of the human body, formed by segments (or rectangles) that represent the body limbs, appropriately connected following the kinematic constraints of the human body, In practice, such skeletal models must fulfill some constraints in order to allow for efficient inference, while actually Iimiting the expressiveness of the model. In order to cope with this, we introduce a top-down approach for predicting the position of the body parts in the model, using a mid-level part representation based on Poselets. Finally, we propose a framework for gesture recognition based on the bag of visual words framework. We leverage the benefits of RGB and depth image modalities by combining modality-specific visual vocabularies in a late fusion fashion. A new rotation-variant depth descriptor is presented, yielding better results than other state-of-the-art descriptors. Moreover, spatio-temporal pyramids are used to encode rough spatial and temporal structure. In addition, we present a probabilistic reformulation of Dynamic Time Warping for gesture segmentation in video sequences, A Gaussian-based probabilistic model of a gesture is learnt, implicitly encoding possible deformations in both spatial and time domains. / L’anàlisi visual de persones a partir d'imatges és un tema de recerca molt important, atesa la rellevància que té a una gran quantitat d'aplicacions dins la visió per computador, com per exemple: detecció de vianants, monitorització i vigilància,interacció persona-màquina, “e-salut” o sistemes de recuperació d’matges a partir de contingut, entre d'altres. En aquesta tesi volem aprendre diferents representacions visuals del cos humà, que siguin útils per a la anàlisi visual de persones en imatges i vídeos. Per a tal efecte, analitzem diferents modalitats d'imatge com són les imatges de color RGB i les imatges de profunditat, i adrecem el problema a diferents nivells d'abstracció, des dels píxels fins als gestos: segmentació de persones, estimació de la pose humana i reconeixement de gestos. Primer, mostrem com la segmentació binària (objecte vs. fons) del cos humà en seqüències d'imatges ajuda a eliminar soroll pertanyent al fons de l'escena en qüestió. El mètode presentat, basat en optimització “Graph cuts”, imposa consistència espai-temporal a Ies màscares de segmentació obtingudes en “frames” consecutius. En segon lloc, presentem un marc metodològic per a la segmentació multi-classe, amb la qual podem obtenir una descripció més detallada del cos humà, en comptes d'obtenir una simple representació binària separant el cos humà del fons, podem obtenir màscares de segmentació més detallades, separant i categoritzant les diferents parts del cos. A un nivell d'abstraccíó més alt, tenim com a objectiu obtenir representacions del cos humà més simples, tot i ésser suficientment descriptives. Els mètodes d'estimació de la pose humana sovint es basen en models esqueletals del cos humà, formats per segments (o rectangles) que representen les extremitats del cos, connectades unes amb altres seguint les restriccions cinemàtiques del cos humà. A la pràctica, aquests models esqueletals han de complir certes restriccions per tal de poder aplicar mètodes d'inferència que permeten trobar la solució òptima de forma eficient, però a la vegada aquestes restriccions suposen una gran limitació en l'expressivitat que aques.ts models son capaços de capturar. Per tal de fer front a aquest problema, proposem un enfoc “top-down” per a predir la posició de les parts del cos del model esqueletal, introduïnt una representació de parts de mig nivell basada en “Poselets”. Finalment. proposem un marc metodològic per al reconeixement de gestos, basat en els “bag of visual words”. Aprofitem els avantatges de les imatges RGB i les imatges; de profunditat combinant vocabularis visuals específiques per a cada modalitat, emprant late fusion. Proposem un nou descriptor per a imatges de profunditat invariant a rotació, que millora l'estat de l'art, i fem servir piràmides espai-temporals per capturar certa estructura espaial i temporal dels gestos. Addicionalment, presentem una reformulació probabilística del mètode “Dynamic Time Warping” per al reconeixement de gestos en seqüències d'imatges. Més específicament, modelem els gestos amb un model probabilistic gaussià que implícitament codifica possibles deformacions tant en el domini espaial com en el temporal.
305

Certificate status information distribution and validation in vehicular networks

Hernández Gañán, Carlos 04 September 2013 (has links)
Tesi per compendi de publicacions. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu de la UPC / Vehicular ad hoc networks (VANETs) are emerging as an functional technology for providing a wide range of applications to vehicles and passengers. Ensuring secure functioning is one of the prerequisites for deploying reliable VANETs. The basic solution envisioned to achieve these requirements is to use digital certificates linked to a user by a trusted third party. These certificates can then be used to sign information. Most of the existing solutions manage these certificates by means of a central Certification Authority (CA). According to IEEE 1609.2 standard, vehicular networks will rely on the public key infrastructure (PKI). In PKI, a CA issues an authentic digital certificate for each node in the network. Therefore, an efficient certificate management is crucial for the robust and reliable operation of any PKI. A critical part of any certificate-management scheme is the revocation of certificates. The distribution of certificate status information process, as well as the revocation process itself, is an open research problem for VANETs.In this thesis, firstly we analyze the revocation process itself and develop an accurate and rigorous model for certificate revocation. One of the key findings of our analysis is that the certificate revocation process is statistically self-similar. As none of the currently common formal models for revocation is able to capture the self-similar nature of real revocation data, we develop an ARFIMA model that recreates this pattern. We show that traditional mechanisms that aim to scale could benefit from this model to improve their updating strategies.Secondly, we analyze how to deploy a certificate status checking service for mobile networks and we propose a new criterion based on a risk metric to evaluate cached status data. With this metric, the PKI is able to code information about the revocation process in the standard certificate revocation lists. Thus, users can evaluate a risk function in order to estimate whether a certificate has been revoked while there is no connection to a status checking server. Moreover, we also propose a systematic methodology to build a fuzzy system that assists users in the decision making process related to certificate status checking.Thirdly, we propose two novel mechanisms for distributing and validating certificate status information (CSI) in VANET. This first mechanism is a collaborative certificate status checking mechanism based on the use based on an extended-CRL. The main advantage of this extended-CRL is that the road-side units and repository vehicles can build an efficient structure based on an authenticated hash tree to respond to status checking requests inside the VANET, saving time and bandwidth. The second mechanism aims to optimize the trade- off between the bandwidth necessary to download the CSI and the freshness of the CSI. This mechanism is based on the use of a hybrid delta-CRL scheme and Merkle hash trees, so that the risk of operating with unknown revoked certificates remains below a threshold during the validity interval of the base-CRL, and CAs have the ability to manage this risk by setting the size of the delta-CRLs. Finally, we also analyze the impact of the revocation service in the certificate prices. We model the behavior of the oligopoly of risk-averse certificate providers that issue digital certificates to clients facing iden- tical independent risks. We found the equilibrium in the Bertrand game. In this equilibrium, we proof that certificate providers that offer better revocation information are able to impose higher prices to their certificates without sacrificing market share in favor of the other oligarchs. / Las redes vehiculares ad hoc (VANETs) se están convirtiendo en una tecnología funcional para proporcionar una amplia gama de aplicaciones para vehículos y pasajeros. Garantizar un funcionamiento seguro es uno de los requisitos para el despliegue de las VANETs. Sin seguridad, los usuarios podrían ser potencialmente vulnerables a la mala conducta de los servicios prestados por la VANET. La solución básica prevista para lograr estos requisitos es el uso de certificados digitales gestionados a través de una autoridad de certificación (CA). De acuerdo con la norma IEEE 1609.2, las redes vehiculares dependerán de la infraestructura de clave pública (PKI). Sin embargo, el proceso de distribución del estado de los certificados, así como el propio proceso de revocación, es un problema abierto para VANETs.En esta tesis, en primer lugar se analiza el proceso de revocación y se desarrolla un modelo preciso y riguroso que modela este proceso conluyendo que el proceso de revocación de certificados es estadísticamente auto-similar. Como ninguno de los modelos formales actuales para la revocación es capaz de capturar la naturaleza auto-similar de los datos de revocación, desarrollamos un modelo ARFIMA que recrea este patrón. Mostramos que ignorar la auto-similitud del proceso de revocación lleva a estrategias de emisión de datos de revocación ineficientes. El modelo propuesto permite generar trazas de revocación sintéticas con las cuales los esquemas de revocación actuales pueden ser mejorados mediante la definición de políticas de emisión de datos de revocación más precisas. En segundo lugar, se analiza la forma de implementar un mecanismo de emisión de datos de estado de los certificados para redes móviles y se propone un nuevo criterio basado en una medida del riesgo para evaluar los datos de revocación almacenados en la caché. Con esta medida, la PKI es capaz de codificar la información sobre el proceso de revocación en las listas de revocación. Así, los usuarios pueden estimar en función del riesgo si un certificado se ha revocado mientras no hay conexión a un servidor de control de estado. Por otra parte, también se propone una metodología sistemática para construir un sistema difuso que ayuda a los usuarios en el proceso de toma de decisiones relacionado con la comprobación de estado de certificados.En tercer lugar, se proponen dos nuevos mecanismos para la distribución y validación de datos de estado de certificados en VANETs. El primer mecanismo está basado en el uso en una extensión de las listas estandares de revocación. La principal ventaja de esta extensión es que las unidades al borde de la carretera y los vehículos repositorio pueden construir una estructura eficiente sobre la base de un árbol de hash autenticado para responder a las peticiones de estado de certificados. El segundo mecanismo tiene como objetivo optimizar el equilibrio entre el ancho de banda necesario para descargar los datos de revocación y la frescura de los mismos. Este mecanismo se basa en el uso de un esquema híbrido de árboles de Merkle y delta-CRLs, de modo que el riesgo de operar con certificados revocados desconocidos permanece por debajo de un umbral durante el intervalo de validez de la CRL base, y la CA tiene la capacidad de gestionar este riesgo mediante el ajuste del tamaño de las delta-CRL. Para cada uno de estos mecanismos, llevamos a cabo el análisis de la seguridad y la evaluación del desempeño para demostrar la seguridad y eficiencia de las acciones que se emprenden.
306

Hierarchical information representation and efficient classification of gene expression microarray data

Bosio, Mattia 27 June 2014 (has links)
In the field of computational biology, microarryas are used to measure the activity of thousands of genes at once and create a global picture of cellular function. Microarrays allow scientists to analyze expression of many genes in a single experiment quickly and eficiently. Even if microarrays are a consolidated research technology nowadays and the trends in high-throughput data analysis are shifting towards new technologies like Next Generation Sequencing (NGS), an optimum method for sample classification has not been found yet. Microarray classification is a complicated task, not only due to the high dimensionality of the feature set, but also to an apparent lack of data structure. This characteristic limits the applicability of processing techniques, such as wavelet filtering or other filtering techniques that take advantage of known structural relation. On the other hand, it is well known that genes are not expressed independently from other each other: genes have a high interdependence related to the involved regulating biological process. This thesis aims to improve the current state of the art in microarray classification and to contribute to understand how signal processing techniques can be developed and applied to analyze microarray data. The goal of building a classification framework needs an exploratory work in which algorithms are constantly tried and adapted to the analyzed data. The developed algorithms and classification frameworks in this thesis tackle the problem with two essential building blocks. The first one deals with the lack of a priori structure by inferring a data-driven structure with unsupervised hierarchical clustering tools. The second key element is a proper feature selection tool to produce a precise classifier as an output and to reduce the overfitting risk. The main focus in this thesis is the binary data classification, field in which we obtained relevant improvements to the state of the art. The first key element is the data-driven structure, obtained by modifying hierarchical clustering algorithms derived from the Treelets algorithm from the literature. Several alternatives to the original reference algorithm have been tested, changing either the similarity metric to merge the feature or the way two feature are merged. Moreover, the possibility to include external sources of information from publicly available biological knowledge and ontologies to improve the structure generation has been studied too. About the feature selection, two alternative approaches have been studied: the first one is a modification of the IFFS algorithm as a wrapper feature selection, while the second approach involved an ensemble learning focus. To obtain good results, the IFFS algorithm has been adapted to the data characteristics by introducing new elements to the selection process like a reliability measure and a scoring system to better select the best feature at each iteration. The second feature selection approach is based on Ensemble learning, taking advantage of the microarryas feature abundance to implement a different selection scheme. New algorithms have been studied in this field, improving state of the art algorithms to the microarray data characteristic of small sample and high feature numbers. In addition to the binary classification problem, the multiclass case has been addressed too. A new algorithm combining multiple binary classifiers has been evaluated, exploiting the redundancy offered by multiple classifiers to obtain better predictions. All the studied algorithm throughout this thesis have been evaluated using high quality publicly available data, following established testing protocols from the literature to offer a proper benchmarking with the state of the art. Whenever possible, multiple Monte Carlo simulations have been performed to increase the robustness of the obtained results. / En el campo de la biología computacional, los microarrays son utilizados para medir la actividad de miles de genes a la vez y producir una representación global de la función celular. Los microarrays permiten analizar la expresión de muchos genes en un solo experimento, rápidamente y eficazmente. Aunque los microarrays sean una tecnología de investigación consolidada hoy en día y la tendencia es en utilizar nuevas tecnologías como Next Generation Sequencing (NGS), aun no se ha encontrado un método óptimo para la clasificación de muestras. La clasificación de muestras de microarray es una tarea complicada, debido al alto número de variables y a la falta de estructura entre los datos. Esta característica impide la aplicación de técnicas de procesado que se basan en relaciones estructurales, como el filtrado con wavelet u otras técnicas de filltrado. Por otro lado, los genes no se expresen independientemente unos de otros: los genes están inter-relacionados según el proceso biológico que les regula. El objetivo de esta tesis es mejorar el estado del arte en la clasi cación de microarrays y contribuir a entender cómo se pueden diseñar y aplicar técnicas de procesado de señal para analizar microarrays. El objetivo de construir un algoritmo de clasi cación, necesita un estudio de comprobaciones y adaptaciones de algoritmos existentes a los datos analizados. Los algoritmo desarrollados en esta tesis encaran el problema con dos bloques esenciales. El primero ataca la falta de estructura, derivando un árbol binario usando herramientas de clustering no supervisado. El segundo elemento fundamental para obtener clasificadores precisos reduciendo el riesgo de overfitting es un elemento de selección de variables. La principal tarea en esta tesis es la clasificación de datos binarios en la cual hemos obtenido mejoras relevantes al estado del arte. El primer paso es la generación de una estructura, para eso se ha utilizado el algoritmo Treelets disponible en la literatura. Múltiples alternativas a este algoritmo original han sido propuestas y evaluadas, cambiando las métricas de similitud o las reglas de fusión durante el proceso. Además, se ha estudiado la posibilidad de usar fuentes de información externas, como ontologías de información biológica, para mejorar la inferencia de la estructura. Se han estudiado dos enfoques diferentes para la selección de variables: el primero es una modificación del algoritmo IFFS y el segundo utiliza un esquema de aprendizaje con “ensembles”. El algoritmo IFFS ha sido adaptado a las características de microarrays para obtener mejores resultados, añadiendo elementos como la medida de fiabilidad y un sistema de evaluación para seleccionar la mejor variable en cada iteración. El método que utiliza “ensembles” aprovecha la abundancia de features de los microarrays para implementar una selección diferente. En este campo se han estudiado diferentes algoritmos, mejorando alternativas ya existentes al escaso número de muestras y al alto número de variables, típicos de los microarrays. El problema de clasificación con más de dos clases ha sido también tratado al estudiar un nuevo algoritmo que combina múltiples clasificadores binarios. El algoritmo propuesto aprovecha la redundancia ofrecida por múltiples clasificadores para obtener predicciones más fiables. Todos los algoritmos propuestos en esta tesis han sido evaluados con datos públicos y de alta calidad, siguiendo protocolos establecidos en la literatura para poder ofrecer una comparación fiable con el estado del arte. Cuando ha sido posible, se han aplicado simulaciones Monte Carlo para mejorar la robustez de los resultados.
307

Modelado y resolución de problemas de secuenciación en contexto JIT/DS mediante BDP

Cano Pérez, Alberto 20 June 2014 (has links)
This document develops the doctoral thesis entitled "Modelado y resolución de problemas de secuenciación en contexto JIT/DS mediante BDP". Through a literature review we explain the problems, within the environment of the sequence problems in production systems. Then, we describe the problems under study, the MMSP-W (Mixed-Model Sequencing Problem with Work overload Minimization), the BFSP (Blocking Flow Shop Problem) and the ORV (Output Rate Variation Problem). Then, a resolution procedure based on BDP (Bounded Dynamic Programming) to solve the problems is proposed. Finally, the results of the proposed procedure are compared with others based on for example linear programming or heuristics. / Este documento desarrolla la tesis doctoral titulada “Modelado y resolución de problemas de secuenciación en contexto JIT/DS mediante BDP”. A través de una revisión de la literatura se explican los problemas objeto de estudio, enmarcándolo dentro del entorno de la secuenciación en los sistemas productivos. A continuación se describen dichos problemas, el MMSP-W (Mixed-Model Sequencing Problem with Work overload Minimization), el BFSP (Blocking Flow Shop Problem) y el ORV (Output Rate Variation Problem). Finalmente se proponen algoritmos de resolución para dichos problemas basados en BDP (Bounded Dynamic Programming o programación dinámica acotada) y se compara la calidad de los procedimientos propuestos con otros basados en programación lineal o heurísticas
308

New Architectures for ubiquitous networks : use and adaptation of internet protocols over wireless sensor networks

Ludovici, Alessandro 07 July 2014 (has links)
This thesis focuses on the study of low-resource demanding protocols, communication techniques and software solutions to evaluate, optimise and implement Web service in WSNs. We start analysing the Web service architectures in order to choose the most appropriate for the constraints of WSNs, which is REST. Based on this analysis, we review the state-of-the-art of protocols that allows implementing REST Web services. To this end, we adopt the IEEE 802.15.4 standard for the physical and data-link layers, 6LoWPAN for the network layer and CoAP for the application layer. 6LoWPAN defines two forwarding techniques, which are called mesh under (MU) and route over (RO). It also provides a mechanism to fragment packets, which is called 6LoWPAN fragmentation. In part of the thesis, we study the effects that MU and RO have on communications using 6LoWPAN fragmentation. In particular, MU does not prevent forwarding unnecessary fragments and out-of-order delivery, which could lead to an inefficient use of bandwidth and a growth of energy consumption. We propose, then, a novel technique able to improve the performance of MU with fragmented packets, which we refer to as controlled mesh under (CMU). The results of a performance evaluation in a real WSN show that CMU is able to enhance the performance of MU by reducing its packet loss and end-to-end delay. In 6LoWPAN fragmentation, the loss of a fragment forces the retransmission of the entire packet. To overcome this limitation, CoAP defines blockwise transfer. It splits the packet into blocks and sends each one in reliable transactions, which introduces a significant communication overhead. We propose a novel analytical model to study blockwise and 6LoWPAN fragmentation, which is validated trough Monte Carlo simulations. Both techniques are compared in terms of reliability and delay. The results show that 6LoWPAN fragmentation is preferable for delay-constrained applications. For highly congested networks, blockwise slightly outperforms 6LoWPAN fragmentation in terms of reliability. CoAP defines the observe option to allow a client to register to a resource exposed by a server and to receive updates of its state. Existing QoS in the observe option supports partially timeliness. It allows specifying the validity of an update but it does not guarantee its on-time delivery. This approach is inefficient and does not consider applications, i.e. e-health, that requires the delivery of an update within a deadline. With this limitation in mind, we design and evaluate a novel mechanism for update delivery based on priority. The evaluation proves that implementing a delivery order improves the delay and delivery ratio of updates. Our proposal is also able to reduce the energy consumption allowing clients to express the class of updates that they wish to receive. In part of this thesis, we present our original library for TinyOS, which we referred to as TinyCoAP, and the design and implementation of a CoAP proxy. We compare TinyCoAP to CoapBlip, which is the CoAP implementation distributed with TinyOS. TinyCoAP proves to be able to reach a high code optimization and to reduce the impact over the memory of WSN nodes. The evaluation includes also the analysis of the CoAP reliability mechanism, which was still uncovered in the literature. As a novelty, we also compare CoAP with HTTP considering different solutions for the transport layer protocol such as UDP and persistent TCP connections. The CoAP proxy enables Web applications to transparently access the resources hosted in CoAP devices. It supports long-lived communications by including the WebSocket protocol. It also supports Web applications that use the traditional HTTP long-polling technique. Finally, one of the main contributions of the proxy design is the proposal of a standard URI path format to be used by Web applications to access to a CoAP resource. / Esta tesis se enfoca en el estudio de protocolos de bajo consumo, técnicas de comunicación y software con el fin de evaluar, optimizar y desarrollar servicios Web en WSNs. Empezamos analizando la arquitectura de servicios Web con el objetivo de elegir la arquitectura más apropiada debido a las limitaciones de WSNs. Ésta se denomina REST. En base a este análisis, revisamos el estado del arte de los protocolos que permiten desarrollar servicios Web. Con este objetivo adoptamos el estándar IEEE 802.15.4 por la capa física y de enlace, 6LoWPAN por la de red y CoAP por la capa de aplicación. 6LoWPAN define dos técnicas de enrutamiento, denominadas 'Mesh Under' (MU) y 'Route Over' (RO). Asimismo ofrece un mecanismo para fragmentar paquetes, llamado 6LoWPAN fragmentation. En parte de la tesis estudiamos los efectos que MU y RO tienen sobre la comunicación que utiliza 6LoWPAN fragmentation. En particular, MU no previene enrutar fragmentos innecesarios y la entrega fuera de orden, lo cual podría provocar un uso ineficiente de ancho de banda y un crecimiento del consumo energía. Proponemos entonces nueva técnica capaz de mejorar las prestaciones de MU con paquetes fragmentados que denominamos 'Controlled Mesh Under' (CMU). Los resultados de una evaluación en una WSN real demuestran que CMU es capaz de mejorar las prestaciones de MU reduciendo la pérdida de paquetes y el retraso end-to-end. En 6LoWPAN fragmentation, la pérdida de un fragmento causa la retransmisión del paquete entero. Para evitar esta limitación CoAP define blockwise transfer. Esto divide el paquete en bloques y los envía en comunicaciones fiables provocando overhead. Proponemos un nuevo modelo analítico para estudiar blockwise y 6LoWPAN fragmentation cuya validación se realiza mediante simulaciones de Monte Carlo. Ambas técnicas se comparan en términos de fiabilidad y retraso. Los resultados muestran que es preferible usar 6LoWPAN fragmentation para las aplicaciones con restricciones en retraso. Para las redes mas congestionadas, blockwise mejora ligeramente 6LoWPAN fragmentation en términos de fiabilidad. CoAP define la opción observe para permitir a un cliente registrarse a un recurso proporcionado por un servidor y recibir actualizaciones de su estado. La QoS ofrecida por la opción observe proporciona soporte parcial por el timeliness. Esta permite especificar la validez de una actualización pero no garantiza su entrega a tiempo. Este enfoque es ineficiente y no incluye aplicaciones, como por ejemplo e-health que requieren la entrega de las actualizaciones en un plazo determinado. Teniendo en cuenta esta limitación, diseñamos y evaluamos un mecanismo novedoso para la entrega de actualizaciones basada en la prioridad. La evaluación demuestra que la implementación de una orden de entrega mejora la tasa de llegada y el retraso de las actualizaciones. Nuestra propuesta es capaz de reducir el consumo de energía permitiendo a los clientes expresar el tipo de actualización que desean recibir. En parte de esta tesis presentamos nuestra librería original pro TinyOS a la que nos referimos como TinyCoAP, así como el diseño y desarrollo de un Proxy CoAP. Comparamos TinyCoAP a CoapBlip, que es la aplicación distribuida con TinyOS. TinyCoAP demuestra ser capaz de alcanzar una alta optimización de código y reducir el impacto sobre la memoria de nodos de WSNs. La evaluación también incluye el análisis de la fiabilidad de CoAP que no había sido estudiada en la literatura. Como novedad también comparamos CoAP con HTTP, considerando diferentes soluciones para el protocolo de transporte como UDP y conexiones TCP persistentes. El Proxy CoAP permite a las aplicaciones Web acceder de manera transparente a los recursos almacenados en dispositivos CoAP. Éste incluye el protocolo WebSocket, que permite el establecimiento de conexiones long-lived. También permite el uso de aplicaciones Web con la tradicional técnica HTTP long-polling
309

Contributions to the performance evaluation and improvement of the IPv6 routing protocol for low-power and lossy networks

Kermajani, Hamidreza 03 September 2014 (has links)
Wireless Sensor Networks (WSNs) have become increasingly important. These networks comprise sensor and actuator nodes that enable intelligent monitoring and control applications in a wide spectrum of environments including smart cities, home automation, remote health and precision agriculture to mention a few. In certain IETF circles, networks of these characteristics are called Low Power and Lossy Networks (LLNs). Whereas most LLN protocol architectures were born without native IP support, there exists a tendency in the market towards IP convergence, since IP-based LLNs offer an open and tandardized way of connecting LLNs to the Internet, thus nabling the Internet of Things (IoT). Since most LLN configurations are multihop, and thus a routing protocol is required, the IETF created the Routing Over Low power and Lossy networks (ROLL) working group, which decided to develop a new routing protocol called IPv6 Routing Protocol for LLNs (RPL). RPL was specifically designed to meet the requirements of LLNs and is a central component of the IETF protocol suite for the IoT. Since RPL has already been deployed in millions of nodes, it is fundamental to characterize its properties, evaluate the influence of its main parameters and options on network performance, and analyze performance improvement possibilities. This PhD thesis presents the following original contributions in this field: 1. Evaluation of the influence of the main RPL parameters on the network convergence process over IEEE 802.15.4 multihop networks, in terms of network characteristics such as size and density. In addition, a mechanism that leverages an option available in RPL for accelerating network convergence has been proposed and evaluated. This study provides a guideline for configuring and selecting adequately crucial RPL parameters and mechanisms for achieving high network convergence performance, as well as a characterization of the related performance trade-offs. 2. Development of an analytical model for estimating the network convergence time of RPL in a static chain topology network of IEEE 802.15.4 nodes, in the presence of bit errors. Results show the scenarii in terms of BER and chain topology length that may dramatically degrade performance experienced by a user. The model provides a lower bound on the network convergence time for a random topology network. 3. Development of an analytical tool to estimate the number of control messages transmitted in a random topology static network which uses the Trickle algorithm (a transmission scheduling algorithm used in RPL) under steady state conditions. Results show the accuracy of the model, which can be used for both synchronous and asynchronous networks. The slight difference in performance between these two network configurations is discussed and illustrated. 4. Theoretical evaluation of the route change latency incurred by RPL when 6LoWPAN Neighbor Discovery (ND) is used. On this basis, a study on the impact of the relevant 6LoWPAN ND and RPL parameters on path availability and the trade-off between path availability and message overhead, has been carried out. 5. Development of a RPL simulator for OMNeT++ using the MiXiM framework. / La importància de les Wireless Sensor Networks (WSNs) ha estat creixent significativament en els darrers anys. Aquestes xarxes comprenen node sensors i actuadors que possibiliten aplicacions de control i monitorització en un ampli ventall d'entorns, incloent les ciutats intel·ligents, automatització residencial, etc. En alguns cercles de l'IETF, aquestes xarxes són anomenades Low Power and Lossy Networks (LLNs). La majoria d'arquitectures de protocols van néixer sense suport natiu per a IP, per ha existit recentment una tendència en el mercat envers la convergència IP, ja que les LLN basades en IP ofereixen una manera oberta i estandaritzada de connectar LLNs a Internet, tot creant la Internet de les Coses. Atès que moltes configuracions de LLNsn multisalt, i per tant es requereix un protocol d'encaminament, l'IETF va crear el Routing Over Low power and Lossy networks (ROLL) working group, que va decidir dissenyar un nou protocol anomenat IPv6 Routing Protocol for LLNs (RPL). RPL va ser específicament dissenyat per complir amb els requeriments de les LLNs i és un component central de la pila de protocols de l'IETF per a la Internet de les Coses. Atès que RPL ha estat desplegat en milions de nodes, és fonamental caracteritzar les seves propietats, avaluar la influència dels seus paràmetres principals i opcions en el rendiment, i analitzar les possibilitats de millora del protocol. Aquesta tesi presenta les següents contribucions originals en aquest camp: 1. Avaluació de la influència dels principals paràmetres de RPL en el procés de convergència de la xarxa en xarxes IEEE 802.15.4, en termes de característiques com la mida i la densitat de la xarxa. A més a més, s'ha proposat i avaluat un mecanisme que utilitza una opci disponible en el RPL per a accelerar la convergència de xarxa. Aquest estudi proporciona una guia per configurar i escollir adequadament paràmetres crucials del protocol RPL per tal d'assolir una ràpida convergència de xarxa, això com una caracteritzaci dels compromisos relacionats. 2. Desenvolupament d'un model analátic per estimar el temps de convergència de xarxa de RPL en una topologia de xarxaestàtica en cadena de nodes IEEE 802.15.4, en presència d'errors. Els resultats mostren els escenaris en termes de BER i mida de la cadena que poden degradar les prestacions percebudes per l'usuari. El model proporciona una fita inferior del temps de convergència de xarxa per a una topologia aleatòria. 3. Desenvolupament d'una eina analítica per estimar el nombre de missatges de control transmesos en una xarxa de topologia aleat ria i estàtica on s'usa l'algoritme Trickle (algoritme de planificació i control de les transmissions emprat en RPL), en condicions de règim permanent. Els resultats mostren la precisió del model, que pot ser emprat en xarxes síncrones i asíncrones. La lleugera diferència de prestacions entre un escenari i l'altre és discutida i il·lustrada. 4. Avaluació teòrica del temps de canvi de ruta de RPL quan s'usa 6LoWPAN Neighbor Discovery (ND). En base a aixó , es realitza un estudi de l'impacte dels paràmetres rellevants de RPL i 6LoWPAN ND en la disponibilitat de cambi el compromís amb l'overhead de missatges. 5. Desenvolupament d'un simulador de RPL per a OMNeT++ usant el MiXiM framework
310

Dissemination and visualisation of biological data

Gel Moreno, Bernat 29 July 2014 (has links)
With the recent advent of various waves of technological advances, the amount of biological data being generated has exploded. As a consequence of this data deluge, new challenges have emerged in the field of biological data management. In order to maximize the knowledge extracted from the huge amount of biological data produced it is of great importance for the research community that data dissemination and visualisation challenges are tackled. Opening and sharing our data and working collaboratively will benefit the scientific community as a whole and to move towards that end, new developements, tools and techniques are needed. Nowadays, many small research groups are capable of producing important and interesting datasets. The release of those datasets can greatly increase their scientific value. In addition, the development of new data analysis algorithms greatly benefits from the availability of a big corpus of annotated datasets for training and testing purposes, giving new and better algorithms to biomedical sciences in return. None of these would be feasible without large amounts of biological data made freely and publicly available. Dissemination The Distributed Annotation System (DAS) is a protocol designed to publish and integrate annotations on biological entities in a distributed way. DAS is structured as a client-server system where the client retrieves data from one or more servers and to further process and visualise. Nowadays, setting up a DAS server imposes some requirements not met by many research groups. With the aim of removing the hassle of setting up a DAS server, a new software platform has been developed: easyDAS. easyDAS is a hosted platform to automatically create DAS servers. Using a simple web interface the user can upload a data file, describe its contents and a new DAS server will be automatically created and data will be publicly available to DAS clients. Visualisation One of the most broadly used visualization paradigms for genomic data are genomic browsers. A genomic browser is capable of displaying different sets of features positioned relative to a sequence. It is possible to explore the sequence and the features by moving around and zooming in and out. When this project was started, in 2007, all major genome browsers offered quite an static experience. It was possible to browse and explore data, but is was done through a set of buttons to the genome a certain amount of bases to left or right or zooming in and out. From an architectural point of view, all web-based genome browsers were very similar: they all had a relatively thin clien-side part in charge of showing images and big backend servers taking care of everything else. Every change in the display parameters made by the user triggered a request to the server, impacting the perceived responsiveness. We created a new prototype genome browser called GenExp, an interactive web-based browser with canvas based client side data rendering. It offers fluid direct interaction with the genome representation and it's possible to use the mouse drag it and use the mouse wheel to change the zoom level. GenExp offers also some quite unique features, such as its multi-window capabilities that allow a user to create an arbitrary number of independent or linked genome windows and its ability to save and share browsing sessions. GenExp is a DAS client and all data is retrieved from DAS sources. It is possible to add any available DAS data source including all data in Ensembl, UCSC and even the custom ones created with easyDAS. In addition, we developed a javascript DAS client library, jsDAS. jsDAS is a complete DAS client library that will take care of everything DAS related in a javascript application. jsDAS is javascript library agnostic and can be used to add DAS capabilities to any web application. All software developed in this thesis is freely available under an open source license. / Les recents millores tecnològiques han portat a una explosió en la quantitat de dades biològiques que es generen i a l'aparició de nous reptes en el camp de la gestió de les dades biològiques. Per a maximitzar el coneixement que podem extreure d'aquestes ingents quantitats de dades cal que solucionem el problemes associats al seu anàlisis, i en particular a la seva disseminació i visualització. La compartició d'aquestes dades de manera lliure i gratuïta pot beneficiar en gran mesura a la comunitat científica i a la societat en general, però per a fer-ho calen noves eines i tècniques. Actualment, molts grups són capaços de generar grans conjunts de dades i la seva publicació en pot incrementar molt el valor científic. A més, la disponibilitat de grans conjunts de dades és necessària per al desenvolupament de nous algorismes d'anàlisis. És important, doncs, que les dades biològiques que es generen siguin accessibles de manera senzilla, estandaritzada i lliure. Disseminació El Sistema d'Anotació Distribuïda (DAS) és un protocol dissenyat per a la publicació i integració d'anotacions sobre entitats biològiques de manera distribuïda. DAS segueix una esquema de client-servidor, on el client obté dades d'un o més servidors per a combinar-les, processar-les o visualitzar-les. Avui dia, però, crear un servidor DAS necessita uns coneixements i infraestructures que van més enllà dels recursos de molts grups de recerca. Per això, hem creat easyDAS, una plataforma per a la creació automàtica de servidors DAS. Amb easyDAS un usuari pot crear un servidor DAS a través d'una senzilla interfície web i amb només alguns clics. Visualització Els navegadors genomics són un dels paradigmes de de visualització de dades genòmiques més usats i permet veure conjunts de dades posicionades al llarg d'una seqüència. Movent-se al llarg d'aquesta seqüència és possibles explorar aquestes dades. Quan aquest projecte va començar, l'any 2007, tots els grans navegadors genomics oferien una interactivitat limitada basada en l'ús de botons. Des d'un punt de vista d'arquitectura tots els navegadors basats en web eren molt semblants: un client senzill encarregat d'ensenyar les imatges i un servidor complex encarregat d'obtenir les dades, processar-les i generar les imatges. Així, cada canvi en els paràmetres de visualització requeria una nova petició al servidor, impactant molt negativament en la velocitat de resposta percebuda. Vam crear un prototip de navegador genòmic anomenat GenExp. És un navegador interactiu basat en web que fa servir canvas per a dibuixar en client i que ofereix la possibilitatd e manipulació directa de la respresentació del genoma. GenExp té a més algunes característiques úniques com la possibilitat de crear multiples finestres de visualització o la possibilitat de guardar i compartir sessions de navegació. A més, com que és un client DAS pot integrar les dades de qualsevol servidor DAS com els d'Ensembl, UCSC o fins i tot aquells creats amb easyDAS. A més, hem desenvolupat jsDAS, la primera llibreria de client DAS completa escrita en javascript. jsDAS es pot integrar en qualsevol aplicació DAS per a dotar-la de la possibilitat d'accedir a dades de servidors DAS. Tot el programari desenvolupat en el marc d'aquesta tesis està lliurement disponible i sota una llicència de codi lliure.

Page generated in 0.1071 seconds