Spelling suggestions: "subject:"telecomunicación"" "subject:"telecomunicacions""
1 |
Design of energy efficient network planning schemes for LTE-based cellular networksBousia, Alexandra 18 February 2016 (has links)
The rapid expansion of mobile services and the emerging demand for multimedia applications have led to an impressive traffic growth. To this end, Mobile Network Operators (MNOs) seek to extend their infrastructure by installing more Base Stations (BSs), in an effort to increase the network capacity and meet the pressing traffic demands. Furthermore, to fulfill the escalated demands, Heterogeneous Networks (HetNets), which consist of Small Cells (SCs) and the traditional BSs, constitute the new trend of next generation networks.
The deployed infrastructure implies a rise in the Capital Expenditures and has a direct impact on the network energy consumption, thus resulting in higher Operational Expenditures. Hence, the investigation of energy efficient solutions will bring down the energy consumption and the network cost. Since the BS is the most power hungry component, the research community has shifted towards the investigation of BS deactivation schemes. These schemes propose that part of the infrastructure can be temporarily switched off, when the traffic is low, while the active BSs extend their coverage to serve the network.
Based on a comprehensive review of the state-of-the-art, a set of research opportunities were identified. This thesis provides contributions to the field of BS switching off strategies for wireless macro BSs networks and HetNets of single and multiple MNOs by proposing mechanisms that enhance different aspects of the network performance. The BSs deactivation, the innovative trend of infrastructure sharing and the financially driven collaboration among the involved parties of the current and future networks promise significant improvements in terms of energy and cost savings. The main thesis contributions are divided into three parts, described next.
The first part of the thesis introduces innovative BS switching off approaches in single-operator environments, where only macro BSs are deployed. The proposed strategies exploit the inherit characteristics of the traffic load pattern (e.g., distribution of the users, traffic volume, etc.) and the distinctive features of the wireless cellular networks (e.g., BSs position, topology, etc.). Theoretical analysis and computer-based simulations show the performance improvement offered by the switching off strategies with respect to energy efficiency.
The second part of the thesis explores a different challenge in network planning. The coexistence of multiple MNOs in the same geographical area has motivated a new business model, known as infrastructure sharing. A roaming-based deactivation scheme is proposed, by taking into account the rationality and the conflicting interests of the MNOs. The proposed game theoretic framework enables the MNOs to take individual switching off decisions, thus bypassing potential complicated agreements. The theoretical and simulation results show that our proposal significantly improves the energy efficiency, guaranteeing at the same time the throughput in realistic scenarios. Moreover, the proposed scheme provides higher cost efficiency and fairness compared to the state-of-the-art algorithms, motivating the MNOs to adopt game theoretic strategies.
The third part of the thesis focuses on the exploitation of HetNets and the proposal of energy and cost effective strategies in SC networks with multiple MNOs. We effectively address the cost sharing by proposing accurate cost models for the SCs to share the network cost. Taking into account the impact of the traffic on the cost, we propose novel cost sharing policies that provide a fair outcome. In continuation, innovative auction-based schemes within multiobjective optimization framework are introduced for data offloading from the BSs, owned by the MNOs, to the third-party SC networks. The proposed solution captures the conflicting interests of the MNOs and the third-party companies and the obtained results show that the benefit of proposing switching off approaches for HetNets. / La rápida expansión de los servicios móviles y de la demanda emergente de aplicaciones multimedia han dado lugar a un impresionante crecimiento del tráfico. Operadores de redes móviles (MNOs) tratará de extender su infraestructura mediante la instalación de más estaciones base (BSs), en un esfuerzo por aumentar la capacidad de la red y satisfacer las apremiantes demandas de tráfico. Además, para cumplir con las exigencias escalada, redes heterogéneas (HetNets), constituyen la nueva tendencia de las redes de próxima generación. La infraestructura implica un aumento en los gastos de capital y tiene un impacto directo en el consumo de energía a la red, lo que resulta en un aumento de los gastos operacionales. La investigación de soluciones de eficiencia energética hará bajar el consumo de energía y el coste de la red. La comunidad científica se ha desplazado hacia la investigación de los sistemas de desactivación de BSs. Estos esquemas proponen que parte de la infraestructura se puede cdesectivarse, cuando el tráfico es bajo, mientras que los BSs activas extender su cobertura al servicio de la red. Esta tesis ofrece contribuciones al campo de la BSs desconexión para las redes y HetNets con uno o multiples MNOs, proponiendo mecanismos que mejoran diferentes aspectos del rendimiento de la red. La desactivación de BS,s la tendencia innovadora de compartir infraestructura y la colaboración impulsada financieramente entre las partes implicadas de las redes actuales y futuras prometen mejoras significativas en términos de ahorro energético y económico. Las principales contribuciones de tesis se dividen en tres partes, que se describen a continuación. La primera parte de la tesis introduce innovadora apagar enfoques en entornos de un solo operador, donde se despliegan sólo macro BSs. Las estrategias propuestas explotan las características de tráfico (por ejemplo, la distribución de los usuarios, el volumen de tráfico, etc.) y las características distintivas de las redes (por ejemplo, la posición BS, topología, etc.). Análisis teórico y simulaciones muestran la mejora del rendimiento ofrecido por las estrategias de conmutación con respecto a la eficiencia energética. La segunda parte de la tesis explora un reto diferente en la planificación de la red. La coexistencia de múltiples operadores en la misma zona geográfica ha motivado un nuevo modelo de negocio, conocida como la compartición de infraestructura. Se propone un esquema de desactivación basada en itinerancia, teniendo en cuenta la racionalidad y los intereses en conflicto de los operadores de redes móviles. Los resultados teóricos y de simulación muestran que nuestra propuesta mejora significativamente la eficiencia energética, garantizando al mismo tiempo el rendimiento en escenarios realistas. Por otra parte, el esquema propuesto proporciona una mayor eficiencia de costes y la equidad en comparación con los algoritmos del estado de la técnica, motivar al mnos de adoptar estrategias de teoría de juegos. La tercera parte de la tesis se centra en la explotación de HetNets y la propuesta de estrategias eficaces de energía y costes en las redes con múltiples operadores. Nos dirigimos efectivamente la participación en los costos, proponiendo modelos de costos precisos para para compartir el costo de la red. Teniendo en cuenta el impacto del tráfico en el coste, proponemos políticas costos compartidos novedosas que proporcionan un resultado justo. En la continuación, los esquemas basados en subastas innovadoras dentro de marco de optimización multiobjetivo se introducen los datos que descargan de la BS. La solución propuesta recoge los intereses en conflicto de los operadores de redes móviles y las compañías de terceros y los resultados obtenidos muestran que el beneficio de proponer la desconexión se acerca para HetNets
|
2 |
Advanced optical technologies for phytoplankton discrimination : application in adaptive ocean sampling networksFernández Aymerich, Ismael 25 January 2016 (has links)
There is a lack on ocean dynamics understanding, and that lead oceanographers to the need of acquiring more reliable data to study ocean characteristics. Oceanographic measurements are difficult and expensive but essential for effective study oceanic and atmospheric systems. Despite rapid advances in ocean sampling capabilities, the number of disciplinary variables that are necessary to solve oceanographic problems are large. In addition, the time scales of important processes span over ten orders of magnitude, and due to technology limitations, there are important spectral gaps in the sampling methods obtained in the last decades. Thus, the main limitation to understand these dynamics is an inaccurate measurement of the process due to undersampling. But fortunately, recent advances in ocean platforms and in situ autonomous sampling systems and satellite sensors are enabling unprecedented rates of data acquisition as well as the expansion of temporal and spatial coverage. Many advances in technologies involving different areas such as computing, nanotechnology, robotics, molecular biology, etc. are being developed. There exist the effort that these advantages could be applied to ocean sciences and will prove to extremely beneficial for oceanographers in the next few decades. Autonomous underwater vehicles, in situ automatic sampling devices, high spectral resolution optical and chemical sensors are some of the new advances that are being utilized by a limited number of oceanographers, and in a few years are expected to be widely used. Thanks to new technologies and, for instance, utilization of data assimilation models coupled with autonomous sampling platforms can increase temporal and spatial sampling capabilities. For instance, studies of phytoplankton dynamics in the water column, or the transportation and aggregation of organisms need a high rate of sampling because of their rapid evolution, that is why new strategies and technologies to increase sampling rate and coverage would be really useful. However, other challenges come up when increasing the variety and quantity of ocean measurements. For instance, number of measurements are limited by costs of instruments and their deployment, as well as data processing and production of useful data products and visualizations.
In some studies, there exists the necessity to discriminate and detect different phytoplankton species present in sea water, and even track their evolution. The use of their optical properties is one of the approximations used by some of them. Acquiring optical properties is a non-invasive and non-destructive method to study phytoplankton communities. Phytoplankton species are then organized thanks to presenting similar optical characteristics. Fluorescence spectroscopy has been used and found as a really potential technique for this goal, although passive optical techniques such as the study of the absorption can be also useful, or even their combination can be studied. Specifically speaking about fluorescence, the majority of the studies have centered their effort in discriminating phytoplankton groups using their excitation spectra because the emission spectra contains less information. The inconvenient of using this kind of information, is that the acquisition is not instantaneous and it is necessary to spend some time (over a second) exciting the sample at different wavelengths sequentially. In contrast, the whole emission spectra can be acquired instantaneously. Therefore, the aim of this thesis is to explore new and powerful signal processing techniques able to discriminate between different phytoplankton groups from their emission fluorescence spectra. This document presents important results that demonstrate the capabilities of these methods. / Existe una falta de conocimiento sobre las dinámicas de los océanos, lo que lleva a los oceanógrafos a la necesidad de adquirir datos fiables para estudiar las características de los océanos. Los datos oceanográficos son difíciles y costosos de adquirir, pero esenciales para estudiar de manera efectiva los sistemas oceánicos i atmosféricos. A causa de los rápidos avances para muestrear este medio tan hostil, es necesario que diversas disciplinas trabajen juntas para solucionar el gran número de problemáticas que se pueden encontrar. Además, los procesos que se tienen que estudiar pueden perdurar hasta diez órdenes de magnitud, y por culpa de las limitaciones tecnológicas existen importantes faltas en los métodos que se llevan utilizando en las últimas décadas. Por eso, la principal limitación para entender estas dinámicas es la imposibilidad de medir procesos correctamente como consecuencia de la baja frecuencia de muestreo. Por suerte, los recientes avances en plataformas oceánicas y sistemas de muestreo autónomos, junto con datos de satélite, están mejorando estas frecuencias de adquisición, i en consecuencia aumentando la cobertura temporal y espacial de estos procesos. Actualmente hay disciplinas como la computación, nanotecnología, robótica, biología molecular, etc. que están protagonizando unos avances tecnológicos sin precedentes. La intención es aprovechar este esfuerzo y aplicarlo en oceanografía. Vehículos autónomos bajo el agua, sistemas automáticos de muestreo, sensores ópticos o químicos de alta resolución son algunas de las tecnologías que se empiezan a utilizar, pero que por culpa de su coste todavía no están extendidas y se espera que lo puedan estar en los próximos años. Gracias a algunas de estas tecnologías, como por ejemplo la utilización de modelos de asimilación de datos conjuntamente con plataformas autónomas de muestreo, se puede incrementas la capacidad de muestreo, tanto temporal como espacial. Un ejemplo claro de aplicación es el estudio de las dinámicas del fitoplancton, así como el transporte de organismos dentro de la columna de agua. No obstante, no todos los aspectos son positivos, otros retos surgen al aumentar la variedad y cantidad de datos oceanográficos. El número de datos queda limitado por el coste de los instrumentos y las campañas. Además, es necesario estudiar nuevos sistemas para procesar y extraer información útil de estos datos, puesto que los métodos conocidos hasta el momento quizá no son los más adecuados. La detección y discriminación de diferentes especies de fitoplancton en el mar es muy importante en ciertos estudios científicos. Algunos de estos estudios se basan en extraer información de sus propiedades ópticas, ya que es un método no invasivo ni destructivo. Espectroscopia a partir de la respuesta de fluorescencia del fitoplancton se utiliza en muchos experimentos y se ha demostrado que es una técnica con gran potencial, aunque el estudio de los espectros de absorción u otras técnicas basadas en métodos pasivos también se pueden utilizar. En el caso de la fluorescencia, la mayoría de los estudios se han centrado en discriminar grupos de fitoplancton a partir de los espectros de excitación, porque los espectros de emisión contienen menos información. La desventaja es que el tiempo necesario para adquirir una muestra puede estar entorno al segundo, porque se necesita estimular la muestra a diferentes longitudes de onda secuencialmente. En el caso de los espectros de emisión, con los avances actuales en sensores ópticos, las respuestas espectrales pueden ser adquiridas casi instantáneamente. Por este motivo, el objetivo principal de esta tesis es explorar nuevas tecnologías de procesado capaces de discriminar diferentes grupos de fitoplancton a partir de sus espectros de emisión de fluorescencia. Este documento presenta importantes resultados que demuestran la capacidad de discriminación de este tipo de información en combinación con las técnicas de procesado adecuadas.
|
3 |
Contributions to the algorithms and methodologies for virtual infrastructure provisioningFerrer Riera, Jordi 20 January 2016 (has links)
Virtualization is defined as the process consisting of building a virtual resource on top of one or several physical resources, depending on the selected paradigm: aggregation or partitioning. From the net- working perspective, over the recent years virtualization became a hot topic in networking research, although the term is not new, neither for networking nor for Information Technology (IT). In virtualization environments, the most significant challenge to be addressed is the virtual infrastructure allocation or embedding one. The problem appears over any networking technology, from wired to wireless domains, including converged physical infrastructures as well as coupled IT and networking infrastructures. This problem has re-gained importance in the last years due to the emergence of novel software- based abstractions, which provide fully-operational interfaces on top of those virtual resources, enabling the emergence of novel business models.
The election of the physical resources upon which the virtual infrastructure will be instantiated becomes fundamental for the virtual infrastructure operation in those virtualized environments, i.e. the election of the physical resources over which the virtual ones will be allocated. In fact, the virtual infrastructure allocation system might be seen as a policy-based system, where, based on the physical infrastructure available, and the set of requests, it will create different virtual infrastructures as a function of the policy, which will indicate the metric to optimize when creating those Virtual Infrastructures (VIs). For example, the infrastructure provider, who is responsible for leasing those virtual infrastructures, may want to optimize the economical cost of the different instantiated virtual slices, or even the overall energy consumption of the slices.
The problem acquires different dimensions when considering heterogeneous resources (e.g. optical network resources and wireless resources) in order to create cross-domain virtual infrastructures; or when it includes IT resources connected at the edges of the different network domains. The first part of the thesis provides an insight on the problem, and different contributions on the algorithms utilized in order to solve the problem. It considers different optical substrate technologies, wireless and wired resources, and it tries to optimize either the total number of virtual infrastructures to be created or either the energy consumed by the resources.
Furthermore, the work proposed in the second part of the dissertation includes a dynamic re-planning approach, which is responsible of dynamically updating already provisioned virtual infrastructures in order to adapt them to the Cloud-based services. Those services are unpredictable; basically, information regarding the volume and type of service requests is not precisely available in advance of the requests to the VI providers. Cloud services can scale up and down on demand. Therefore, that dynamic adaptation of the infrastructure to the elasticity of the Cloud services requires constant changes. Dynamic re-planning becomes fundamental for virtual infrastructures supporting cloud-based services.
Virtualization can be indistinctly applied to IT servers, network re- sources, and even network functions. The last part of the work de- fines the additional scheduling problem, specific for Network Function Virtualization (NFV), which is complementary to the allocation or embedding. NFV aims at decoupling the network functions from the actual hardware where they are executed. Thus, most of the network functions will run on standard virtualized servers by means of soft- ware, which is expected to significantly reduce capital expenditures, while at the same time the software automation reduces operational expenditures. The solution for the scheduling aims at minimizing the total execution time for chains of network services running over IT infrastructures. / La virtualización se define como el proceso consistente en la construcción de recursos lógicos o virtuales sobre uno o varios elementos físicos, dependiente del paradigma seleccionado: agregación o partición. Desde la perspectiva de la red, en los últimos años la virtualización se ha convertido en un tema recurrente, aunque el término virtualización no sea algo nuevo en entornos de red y entornos IT. El problema más significativo a resolver, aunque no el único, en entornos donde se considera la virtualización es el problema de asignación de recursos virtuales sobre los físicos, esto es, decidir qué recursos de la capa física se asignan a las distintas peticiones de infraestructuras virtuales. El problema aparece sobre distintas tecnologías de red, desde redes fijas hasta redes de acceso sin cable, incluyendo dominios integrados acceso metro, y recursos de computación y almacenamiento integrados con la red. El problema ha vuelto a actualizarse y ganar más importancia aún en los últimos años con la aparición de nuevas abstracciones basadas en software, las cuáles proveen interfaces completamente operables sobre los recursos virtuales, al mismo tiempo que se habilitan nuevos modelos de negocio.Por lo tanto, la selección de los recursos físicos sobre los que se construirán e instanciarán las infraestructuras virtuales se convierte en un elemento fundamental para la operación efectiva y eficiente en entornos virtualizados. De hecho, el sistema de virtualización se puede entender cómo un sistema basado en políticas, en el cuál, a partir de una descripción de la infraestructura física y un conjunto de peticiones de infraestructuras virtuales, se crearán diferentes infraestructuras virtuales en función de la política, que en esencia indicará la métrica a ser optimizada en el sistema cuándo se crean las distintas infraestructuras virtuales. Además del análisis del estado del arte del problema de la virtualización, centrado en redes ópticas y entornos donde los recursos IT se encuentran integrados con los recursos de red, la primera parte de las actividades de la tesis se centra en distintas contribuciones en el entorno de la virtualización de red. En ellas se analiza desde el impacto de las distintas tecnologías físicas consideradas en el problema, hasta la posibilidad de pre-procesar las diferentes demandas con el fin de mejorar el rendimiento en función de la política considerada para la virtualización. La primera parte considera los problemas de tipo offline, en los cuáles se consideran conocidas todas las demandas desde un principio. Por otro lado, la segunda parte de las actividades se centran en afrontar el problema online, en el cuál las peticiones no son conocidas de antemano. En este sentido, se ha propuesto un sistema de re-planificación dinámica de las infraestructuras virtualizadas, el cuál es responsable directo de actualizar los recursos de las mismas con tal de adaptarlas a los servicios cloud. Estos servicios son impredecibles, tanto en volumen como en tipo de servicio, además de la flexibilidad y elasticidad que les permite escalar constantemente en recursos. Como consecuencia, el sistema de re-planificación se convierte en fundamental para la eficiente creación y operación de las infraestructuras virtuales. Finalmente, la última propuesta de las actividades enmarcadas dentro de la tesis doctoral abren la puerta a la definición de un nuevo problema relacionado con la virtualización: virtualización de funciones específicas de red. Se presenta un sistema de gestión y orquestración que incluye la solución de scheduling para distintas funciones de red virtualizadas, el cuál tiene por objetivo minimizar el tiempo de ejecución total de las distintas cadenas de servicio.
|
4 |
Topologías para la distribución de contenidos en redes de comunicaciónMachado Sánchez, Sergio 03 February 2016 (has links)
The peer-to-peer (P2P) overlay networks are distribution topologies that take advantage of the ability that their nodes have to forward the information that they receive. For the particular case of video transmission using P2P networks, known as streaming P2P, there are implementations based on BitTorrent protocol data dissemination for files downloading.
These networks use a pseudorandom topology which makes difficult to determine both the size of the network -defined as the maximum number of nodes which can receive information with a given quality of service- and the distribution delay. Despite this lack of definition, in the current thesis we present a structured network in which the nodes establish both incoming and outgoing connections according to a deterministic joining algorithm.
That topology allows to calculate exactly the number of nodes that may join the network and that in stable conditions may get the flow with guaranteed quality of service, and also one very fitted bound for the total distribution delay.
In our case, we have defined networks which contain a single source node with a bandwidth weater than the bandwidth of the information flow, and also a set of nodes with a bandwidth lower than the bandwidth of the flow. This constraint is used to distinguish the high capacity nodes from the terminal nodes which either have physical limitations due to their access link bandwidth or do not consider to allocate all their bandwidth to the
forwarding of the information flow. In fact, high capacity nodes can be considered sources either because they produce the flow physically or because, receiving it from another distribution network, they forward it as source to the low bandwidth nodes that belong to the P2P network.
Once the distribution topology is described, we define the mathematical model for its analysis. With this purpose, we normalize the flow bandwidth and we define a network joining algorithm with the aim of optimizing distribution delay. Following, the network topology is characterized by means of three parameters: the number of nodes that can be served directly by the source, the number of download connections that must arrive to a node to guarantee the reception at unitary rate, and the maximum number of upload connections that a node can establish. Likewise, the information flow is segmented into generic information units called objects, which are transmitted into the network by means of a certain set of dissemination trees. The number of dissemination trees corresponds to the number of download connections of a node. With this background material, we calculate the maximum number of peers which can be connected, under stable conditions, to the network, and also a very fitted bound for the transmission delay. Besides, we present a simulation that allows to evaluate the performance of the described topology in the field of VANET networks. Finally, in the last chapter we present a proposal for application-layer multicast distribution network which can be used to send the information flow from the node that initially produces it to the source nodes of the P2P distribution network that we have described. / Las redes superpuestas peer-to-peer (P2P) son topologías de distribución que aprovechan la capacidad que tienen sus nodos de retransmitir a otros nodos la información que reciben. En el caso particular de la transmisión de vídeo mediante redes P2P, conocida como streaming P2P, existen implementaciones basadas en la diseminación de datos del protocolo BitTorrent de descarga de ficheros. Estas redes emplean una topología pseudoaletoria que hace difícilmente caracterizable tanto el tamaño que puede tener la red -entendido como el máximo número de nodos a los que se puede garantizar una calidad de servicio determinada- como el retardo de distribución. Frente a esta falta de definición, en el presente trabajo se presenta una red estructurada en la que los nodos establecen conexiones tanto de recepción como de retransmisión según un algoritmo de ingreso determinista. Dicha topología permite calcular exactamente el número máximo de nodos que pueden formar la red y que, en condiciones de estabilidad, reciben el flujo con garantías de calidad, así como una cota muy ajustada del retardo total de distribución. En nuestro caso, hemos definido redes formadas por un único nodo fuente con una capacidad mayor que el ancho de banda de la transmisión del flujo, así como por una serie de nodos cuya capacidad es inferior al ancho de banda de dicho flujo. Esta restricción sirve para separar los nodos de alta capacidad de los nodos terminales que o bien tienen limitaciones físicas debido a la capacidad de su enlace o bien no quieren destinar toda su capacidad a la retransmisión del flujo de información. De hecho, los nodos de alta capacidad pueden considerarse fuentes o bien porque generan físicamente el flujo o bien porque, recibiéndolo a través de otra red de distribución, lo retransmiten como fuente a los nodos de baja capacidad que conforman la red P2P. Una vez descrita la topología de distribución, se define el modelo matemático para su análisis. Para ello se normaliza el ancho de banda del flujo y se propone un algoritmo de ingreso de nodos en la red con el objeto de optimizar el retardo de distribución. A continuación, se caracteriza la topología de la red mediante tres parámetros: el número de nodos a los que puede servir el nodo fuente, el número de conexiones de descarga que deben llegar a un nodo para recibir el flujo a tasa unitaria y el número máximo de conexiones de subida que puede establecer un nodo. Asimismo, se segmenta el flujo de información en unidades genéricas, denominadas objetos, que se diseminan en la red a través de un determinado conjunto de árboles de difusión. El número de árboles de difusión se corresponde con el número de conexiones de descarga de los nodos. Todo esto permite obtener una expresión del número de nodos que, en condiciones de estabilidad, pueden conectarse a la red, así como una cota muy ajustada del retardo total de transmisión. Presentamos además una simulación que permite evaluar el rendimiento de la topología descrita en el entorno de redes VANET. De forma complementaria, en el último capítulo se presenta una propuesta de distribución multicast en la capa de aplicación que puede emplearse para transmitir el flujo de información desde el nodo que lo produce inicialmente hasta los nodos fuentes de las redes P2P de distribución.
|
5 |
Identification, synchronisation and composition of user-generated videosBano, Sophia 27 January 2016 (has links)
Cotutela Universitat Politècnica de Catalunya i Queen Mary University of London / The increasing availability of smartphones is facilitating people to capture videos of their experience when attending events such as concerts, sports competitions and public rallies. Smartphones are equipped with inertial sensors which could be beneficial for event understanding. The captured User-Generated Videos (UGVs) are made available on media sharing websites. Searching and mining of UGVs of the same event are challenging due to inconsistent tags or incorrect timestamps. A UGV recorded from a fixed location contains monotonic content and unintentional camera motions, which may make it less interesting to playback. In this thesis, we propose the following identification, synchronisation and video composition frameworks for UGVs.
We propose a framework for the automatic identification and synchronisation of unedited multi-camera UGVs within a database. The proposed framework analyses the sound to match and cluster UGVs that capture the same spatio-temporal event, and estimate their relative time-shift to temporally align them. We design a novel descriptor derived from the pairwise matching of audio chroma features of UGVs. The descriptor facilitates the definition of a classification threshold for automatic query-by-example event identification. We contribute a database of 263 multi-camera UGVs of 48 real-world events. We evaluate the proposed framework on this database and compare it with state-of-the-art methods. Experimental results show the effectiveness of the proposed approach in the presence of audio degradations (channel noise, ambient noise, reverberations).
Moreover, we present an automatic audio and visual-based camera selection framework for composing uninterrupted recording from synchronised multi-camera UGVs of the same event. We design an automatic audio-based cut-point selection method that provides a common reference for audio and video segmentation. To filter low quality video segments, spatial and spatio-temporal assessments are computed. The framework combines segments of UGVs using a rank-based camera selection strategy by considering visual quality scores and view diversity. The proposed framework is validated on a dataset of 13 events (93~UGVs) through subjective tests and compared with state-of-the-art methods. Suitable cut-point selection, specific visual quality assessments and rank-based camera selection contribute to the superiority of the proposed framework over the existing methods. Finally, we contribute a method for Camera Motion Detection using Gyroscope for UGVs captured from smartphones and design a gyro-based quality score for video composition. The gyroscope measures the angular velocity of the smartphone that can be use for camera motion analysis. We evaluate the proposed camera motion detection method on a dataset of 24 multi-modal UGVs captured by us, and compare it with existing visual and inertial sensor-based methods. By designing a gyro-based score to quantify the goodness of the multi-camera UGVs, we develop a gyro-based video composition framework. A gyro-based score substitutes the spatial and spatio-temporal scores and reduces the computational complexity. We contribute a multi-modal dataset of 3 events (12~UGVs), which is used to validate the proposed gyro-based video composition framework. / El incremento de la disponibilidad de teléfonos inteligentes o smartphones posibilita a la gente capturar videos de sus experiencias cuando asisten a eventos así como como conciertos, competiciones deportivas o mítines públicos. Los Videos Generados por Usuarios (UGVs) pueden estar disponibles en sitios web públicos especializados en compartir archivos. La búsqueda y la minería de datos de los UGVs del mismo evento son un reto debido a que los etiquetajes son incoherentes o las marcas de tiempo erróneas. Por otra parte, un UGV grabado desde una ubicación fija, contiene información monótona y movimientos de cámara no intencionados haciendo menos interesante su reproducción. En esta tesis, se propone una identificación, sincronización y composición de tramas de vídeo para UGVs. Se ha propuesto un sistema para la identificación y sincronización automática de UGVs no editados provenientes de diferentes cámaras dentro de una base de datos. El sistema propuesto analiza el sonido con el fin de hacerlo coincidir e integrar UGVs que capturan el mismo evento en el espacio y en el tiempo, estimando sus respectivos desfases temporales y alinearlos en el tiempo. Se ha diseñado un nuevo descriptor a partir de la coincidencia por parejas de características de la croma del audio de los UGVs. Este descriptor facilita la determinación de una clasificación por umbral para una identificación de eventos automática basada en búsqueda mediante ejemplo (en inglés, query by example). Se ha contribuido con una base de datos de 263 multi-cámaras UGVs de un total de 48 eventos reales. Se ha evaluado la trama propuesta en esta base de datos y se ha comparado con los métodos elaborados en el estado del arte. Los resultados experimentales muestran la efectividad del enfoque propuesto con la presencia alteraciones en el audio. Además, se ha presentado una selección automática de tramas en base a la reproducción de video y audio componiendo una grabación ininterrumpida de multi-cámaras UGVs sincronizadas en el mismo evento. También se ha diseñado un método de selección de puntos de corte automático basado en audio que proporciona una referencia común para la segmentación de audio y video. Con el fin de filtrar segmentos de videos de baja calidad, se han calculado algunas medidas espaciales y espacio-temporales. El sistema combina segmentos de UGVs empleando una estrategia de selección de cámaras basadas en la evaluación a través de un ranking considerando puntuaciones de calidad visuales y diversidad de visión. El sistema propuesto se ha validado con un conjunto de datos de 13 eventos (93 UGVs) a través de pruebas subjetivas y se han comparado con los métodos elaborados en el estado del arte. La selección de puntos de corte adecuados, evaluaciones de calidad visual específicas y la selección de cámara basada en ranking contribuyen en la mejoría de calidad del sistema propuesto respecto a otros métodos existentes. Finalmente, se ha realizado un método para la Detección de Movimiento de Cámara usando giróscopos para las UGVs capturadas desde smartphones y se ha diseñado un método de puntuación de calidad basada en el giro. El método de detección de movimiento de la cámara con una base de datos de 24 UGVs multi-modales y se ha comparado con los métodos actuales basados en visión y sistemas inerciales. A través del diseño de puntuación para cuantificar con el giróscopo cuán bien funcionan los sistemas de UGVs con multi-cámara, se ha desarrollado un sistema de composición de video basada en el movimiento del giroscopio. Este sistema basado en la puntuación a través del giróscopo sustituye a los sistemas de puntuaciones basados en parámetros espacio-temporales reduciendo la complejidad computacional. Además, se ha contribuido con un conjunto de datos de 3 eventos (12 UGVs), que se han empleado para validar los sistemas de composición de video basados en giróscopo.
|
6 |
Contributions to provide a QoS-aware self-configured framework for video-streaming services over ad hoc networksMezher, Ahmad Mohamad 22 April 2016 (has links)
Ad hoc networks have attracted much attention from the research community over the last years and important technical advances have risen as a consequence. These networks are foreseen as an important kind of next generation access networks, where multimedia services will be demanded by end users from their wireless devices everywhere. In this thesis, we specially focus our research work on mobile ad hoc networks (MANETs) and on vehicular ad hoc networks (VANETs), two kind of ad hoc networks over which interesting multimedia services can be provided. The special haracteristics of MANETs/VANETs, such as mobility, dynamic network topology (specially in VANETs), energy constraints (in case of MANETs), infrastructureless and variable link capacity, make the QoS (Quality of Service) provision over these networks an important challenge for the research community. Due to that, there is a need to develop new routing protocols specially designed for MANETs and VANETs able to provide multimedia services.
The main objective of this thesis is to contribute in the development of the communication framework for MANETs and VANETs to improve decisions to select paths or next hops in the moment of forwarding video-reporting messages. In this way, it would be possible to have a quick answer to manage daily problems in the city and help the emergency units (e.g., police, ambulances, health care units) in case of incidents (e.g., traffic accidents). Furthermore, in case of VANETs, a real scenario must be created and thus we have analysed the presence of obstacles in real maps. Also, in case of an obstacle found between the current forwarding node and the candidate next forwarding node, the packet is stored in a buffer, for a maximum time, until a forwarding neighbour node is found; otherwise, the packet is dropped. To improve the communication framework for MANETs, we propose a new routing protocol based on a game-theoretical scheme for N users specially designed to transmit video-reporting messages. Our proposal makes the network more efficient and provides a higher degree of satisfaction of the users by receiving much more packets with a lower average end-to-end delay, lower jitter and higher PSNR (Peak Signal-to-Noise Ratio).
In addition, we propose a geographical routing protocol for VANETs that considers multiple metrics named 3MRP (Multimedia Multimetric Map-Aware Routing Protocol) [1]. 3MRP is a geographical protocol based on hop-by-hop forwarding. The metrics considered in 3MRP are the distance, the density of vehicles in transmission range, the available bandwidth, the future trajectory of the neighbouring nodes and the MAC layer losses. Those metrics are weighted to obtain a multimetric score. Thus, a node selects another node among its neighbours as the best forwarding node to increase the percentage of successful packet delivery, minimizing the average packet delay and offering a certain level of quality and service. Furthermore, a new algorithm named DSW (Dynamic Self-configured Weights) computes for each metric its corresponding weight depending on the current network conditions. As a consequence, nodes are classiffied in a better way. / Les xarxes sense fils ad hoc han captat molt l'atenció per part de la comunitat científica en els últims anys, a més dels importants avenços tècnics que han sorgit. Aquestes xarxes es preveuen com un tipus important de xarxes d'accés de nova generació, a on els serveis multimèdia seran requerits pels usuaris a través dels seus dispositius sense fils desde tot arreu. En aquesta tesi, centrem el nostre treball especialment en les xarxes mòbils ad hoc (MANET, Mobile Ad hoc Network) i en les xarxes vehiculars ad hoc (VANET, Vehicular Ad hoc Network). Les característiques especials de les MANETs i les VANETs, com la mobilitat, la topologia dinàmica de la xarxa (especialment en VANETs), les restriccions de bateria (en cas de MANETs), l'absència d'infrastructura i la capacitat variable de l'enllaç sense fil fa que la provisió de la qualitat de servei en aquestes xarxes sigui un repte important per a la comunitat científica. A causa d'això, hi ha la necessitat de desenvolupar nous protocols d'encaminament especialment dissenyats per a MANETs i VANETs capaços de proporcionar els serveis de multimèdia requerits. L'objectiu principal d'aquesta tesi és proveir millores en la comunicació per a les xarxes ad hoc MANET i VANET per millorar les decisions a l'hora de seleccionar els propers camins o nodes, respectivament, en el moment de l'enviament de les trames del video. D'aquesta manera serà possible tenir una resposta ràpida per resoldre els problema diaris a la ciutat i ajudar a les unitats d'emergència (per exemple, policia, ambulàncies, unitats de salut) en cas d'incidents, com ara els accidents de trànsit. Per analitzar adequadament les nostres propostes sobre VANETs hem dissenyat un entorn de simulació realista que incorpora la presència d'edificis en mapes reals i en el cas que hi hagi un obstacle entre el node actual i el candidat per a ser el pròxim salt el paquet s'emmagatzema en un buffer, per un temps màxim, fins a trobar un nou candidat; en cas contrari, es descarta el paquet. Per millorar les comunicacions en les MANETs, proposem un nou protocol d'encaminament basat en teoria de jocs per a N usuaris especialment dissenyat per a enviar missatges de vídeo. Això fa que la xarxa sigui més eficient, i així s'aconsegueix un major grau de satisfacció dels usuaris en rebre molts més paquets amb un menor retard mig extrem a extrem, menor variació del retard (jitter ) i major PSNR (Relació Senyal Soroll de Pic) . A més, es proposa un protocol d'encaminament geogràfic basat en el reenviament hop-by-hop per a VANETs anomenat 3MRP (Multimedia Multimetric Map-Aware Routing Protocol ) [1] que prèn en consideració múltiples mètriques. Les mètriques considerades en 3MRP són la distància a destinació, la densitat de vehicles en el rang de transmissió, l'ample de banda disponible, la trajectòria futura dels nodes veíns i la perdua de paquets a la capa MAC. Aquestes mètriques es ponderen per a obtenir una puntuació multimètrica. Així, un node pot seleccionar el millor node de reenviament entre tots els seus veíns per augmentar la probabilitat d' èxit de lliurament de paquets, minimitzant el retard mitjà dels paquets i oferint un cert nivell de qualitat de servei. / Las redes ad hoc han llamado mucho la atención por parte de la comunidad científica en los últimos años, además de los importantes avances técnicos que han surgido. Estas redes se prevén como un tipo importante de redes de acceso de nueva generación, donde los servicios multimedia sean requeridos por los usuarios a través de sus dispositivos inalámbricos desde todas partes. En esta tesis, centramos nuestro trabajo de investigación especialmente en las redes móviles ad hoc (MANET, Mobile Ad hoc Network) y las redes vehiculares ad hoc (VANET, Vehicular Ad hoc Network).
Las características especiales de las MANETs y las VANETs, como la movilidad, la topología dinámica de la red (especialmente en VANETs), las restricciones de batería (en caso de MANETs), la ausencia de infraestructura y la capacidad variable del enlace inalámbrico hace que la provisión de la calidad de servicio en estas redes sea un reto importante para la comunidad científica. Debido a esto, existe la necesidad de desarrollar nuevos protocolos de encaminamiento especialmente diseñados para MANETs y VANETs capaces de proporcionar los servicios de multimedia requeridos.
El objetivo principal de esta tesis es proveer mejoras en la comunicación para las redes ad hoc MANET y VANET para mejorar las decisiones a la hora de seleccionar los próximos caminos o nodos, respectivamente, en el momento del envío de las tramas del video y de esta manera sería posible tener una respuesta rápida para resolver los problema diarios en la ciudad y ayudar a las unidades de emergencia (por ejemplo, policía, ambulancias, unidades de salud) en caso de incidentes, como accidentes de tráfico. Para analizar adecuadamente nuestras propuestas sobre VANETs hemos diseñado un entorno de simulación realista que incorpora la presencia de edificios en mapas reales. En el caso de que haya un obstáculo entre el nodo actual y el candidato para ser el próximo salto el paquete se almacena en un buer, durante un tiempo máximo, hasta encontrar un nuevo candidato; en caso contrario, se descarta el paquete.
Para mejorar las comunicaciones en las MANETs, proponemos un nuevo protocolo de encaminamiento basado en teoría de juegos para N usuarios especialmente diseñados para enviar mensajes de video. Esto hace que la red sea más eficiente, y así se consigue un mayor grado de satisfacción de los usuarios al recibir muchos más paquetes con un menor promedio de retardo de extremo a extremo, variación de retardo (jitter) y mayor PSNR (Relación Señal a Ruido de Pico).
Además, se propone un protocolo de encaminamiento geográfico basado en el reenvío de salto-a-salto para VANETs llamado 3MRP (Multimedia multimetric Map-Aware Routing Protocol) [1] que incluye diversas métricas. Las métricas consideradas en 3MRP son la distancia al destino, la densidad de vehículos en el rango de transmisión, el ancho de banda disponible, la trayectoria futura de los nodos vecinos y la pérdida de paquetes en la capa MAC. Estas métricas se ponderan para obtener una puntuación multimetricanal. Así, un nodo puede seleccionar el mejor nodo de reenvío entre todos sus vecinos para aumentar la probabilidad de éxito de entrega de paquetes, minimizando el retardo medio de los paquetes y ofreciendo un cierto nivel de calidad de servicio. Por otra parte, se ha diseñado un nuevo algoritmo capaz de dar a cada métrica su correspondiente peso en función de las condiciones actuales de la red. De esta forma, los nodos se pueden clasificar de una mejor manera.
Por último, se propone un nuevo protocolo de encaminamiento para VANETs llamado G-3MRP (Game Theoretical Multimedia Multimetric Map-aware Routing Protocol) [2] para enviar mensajes de video basado en teoría de juegos para N usuarios en escenarios urbanos. G-3MRP se basa en el protocolo de encaminamiento 3MRP. G-3MRP utiliza hasta tres nodos a través de los cuales los tres tipos de cuadros de video I, P y B serán enviados. Las métricas utilizadas son las mismas que en 3MRP. G-3MRP logra una mayor grado de satisfacción de los usuarios mediante la recepción de muchos más paquetes de video y con un mayor nivel de PSNR, que la anterior propuesta 3MRP+DSW.
También hemos analizado el problema de detección de obstáculos en mapas reales para VANETs en escenarios urbanos. Para este propósito, hemos desarrollado nuestra herramienta REVsim [3] de tal forma que puede estar fácilmente integrada en nuestra propuesta de protocolo de encaminamiento para que las simulaciones sean más realistas.
|
7 |
Contributions to the routing of traffic flows in multi-hop IEEE 802.11 wireless networksCatalán Cid, Miguel 10 February 2016 (has links)
The IEEE 802.11 standard was not initially designed to provide multi-hop capabilities. Therefore, providing a proper traffic performance in Multi-Hop IEEE 802.11 Wireless Networks (MIWNs) becomes a significant challenge. The approach followed in this thesis has been focused on the routing layer in order to obtain applicable solutions not dependent on a specific hardware or driver. Nevertheless, as is the case of most of the research on this field, a cross-layer design has been adopted. Therefore, one of the first tasks of this work was devoted to the study of the phenomena which affect the performance of the flows in MIWNs. Different estimation methodologies and models are presented and analyzed.
The first main contribution of this thesis is related to route creation procedures. First, FB-AODV is introduced, which creates routes and forwards packets according to the flows on the contrary to basic AODV which is destination-based. This enhancement permits to balance the load through the network and gives a finer granularity in the control and monitoring of the flows. Results showed that it clearly benefits the performance of the flows. Secondly, a novel routing metric called Weighted Contention and Interference routing Metric (WCIM) is presented. In all analyzed scenarios, WCIM outperformed the other analyzed state-of-the-art routing metrics due to a proper leveraging of the number of hops, the link quality and the suffered contention and interference.
The second main contribution of this thesis is focused on route maintenance. Generally, route recovery procedures are devoted to the detection of link breaks due to mobility or fading. However, other phenomena like the arrival of new flows can degrade the performance of active flows. DEMON, which is designed as an enhancement of FB-AODV, allows the preemptive recovery of degraded routes by passively monitoring the performance of active flows. Results showed that DEMON obtains similar or better results than other published solutions in mobile scenarios, while it clearly outperforms the performance of default AODV under congestion
Finally, the last chapter of this thesis deals with channel assignment in multi-radio solutions. The main challenge of this research area relies on the circular relationship between channel assignment and routing; channel assignment determines the routes that can be created, while the created routes decide the real channel diversity of the network and the level of interference between the links. Therefore, proposals which join routing and channel assignment are generally complex, centralized and based on traffic patterns, limiting their practical implementation. On the contrary, the mechanisms presented in this thesis are distributed and readily applicable. First, the Interference-based Dynamic Channel Assignment (IDCA) algorithm is introduced. IDCA is a distributed and dynamic channel assignment based on the interference caused by active flows which uses a common channel in order to assure connectivity. In general, IDCA leads to an interesting trade-off between connectivity preservation and channel diversity. Secondly, MR-DEMON is introduced as way of joining channel assignment and route maintenance. As DEMON, MR-DEMON monitors the performance of the active flows traversing the links, but, instead of alerting the source when noticing degradation, it permits reallocating the flows to less interfered channels. Joining route recovery instead of route creation simplifies its application, since traffic patterns are not needed and channel reassignments can be locally decided. The evaluation of MR-DEMON proved that it clearly benefits the performance of IDCA. Also, it improves DEMON functionality by decreasing the number of route recoveries from the source, leading to a lower overhead. / El estándar IEEE 802.11 no fue diseñado inicialmente para soportar capacidades multi-salto. Debido a ello, proveer unas prestaciones adecuadas a los flujos de tráfico que atraviesan redes inalámbricas multi-salto IEEE 802.11 supone un reto significativo. La investigación desarrollada en esta tesis se ha centrado en la capa de encaminamiento con el objetivo de obtener soluciones aplicables y no dependientes de un hardware específico. Sin embargo, debido al gran impacto de fenómenos y parámetros relacionados con las capas físicas y de acceso al medio sobre las prestaciones de los tráficos de datos, se han adoptado soluciones de tipo cross-layer. Es por ello que las primeras tareas de la investigación, presentadas en los capítulos iniciales, se dedicaron al estudio y caracterización de estos fenómenos. La primera contribución principal de esta tesis se centra en mecanismos relacionados con la creación de las rutas. Primero, se introduce una mejora del protocolo AODV, que permite crear rutas y encaminar paquetes en base a los flujos de datos, en lugar de en base a los destinos como se da en el caso básico. Esto permite balacear la carga de la red y otorga un mayor control sobre los flujos activos y sus prestaciones, mejorando el rendimiento general de la red. Seguidamente, se presenta una métrica de encaminamiento sensible a la interferencia de la red y la calidad de los enlaces. Los resultados analizados, basados en la simulación de diferentes escenarios, demuestran que mejora significativamente las prestaciones de otras métricas del estado del arte. La segunda contribución está relacionada con el mantenimiento de las rutas activas. Generalmente, los mecanismos de mantenimiento se centran principalmente en la detección de enlaces rotos debido a la movilidad de los nodos o a la propagación inalámbrica. Sin embargo, otros fenómenos como la interferencia y congestión provocada por la llegada de nuevos flujos pueden degradar de forma significativa las prestaciones de los tráficos activos. En base a ello, se diseña un mecanismo de mantenimiento preventivo de rutas, que monitoriza las prestaciones de los flujos activos y permite su reencaminamiento en caso de detectar rutas degradadas. La evaluación de esta solución muestra una mejora significativa sobre el mantenimiento de rutas básico en escenarios congestionados, mientras que en escenarios con nodos móviles obtiene resultados similares o puntualmente mejores que otros mecanismos preventivos diseñados específicamente para casos con movilidad. Finalmente, el último capítulo de la tesis se centra en la asignación de canales en entornos multi-canal y multi-radio con el objetivo de minimizar la interferencia entre flujos activos. El reto principal en este campo es la dependencia circular que se da entre la asignación de canales y la creación de rutas: la asignación de canales determina los enlaces existentes la red y por ello las rutas que se podrán crear, pero son finalmente las rutas y los tráficos activos quienes determinan el nivel real de interferencia que se dará en la red. Es por ello que las soluciones que proponen unificar la asignación de canales y el encaminamiento de tráficos son generalmente complejas, centralizadas y basadas en patrones de tráfico, lo que limita su implementación en entornos reales. En cambio, en nuestro caso adoptamos una solución distribuida y con mayor aplicabilidad. Primero, se define un algoritmo de selección de canales dinámico basado en la interferencia de los flujos activos, que utiliza un canal común en todos los nodos para asegurar la conectividad de la red. A continuación, se introduce un mecanismo que unifica la asignación de canales con el mantenimiento preventivo de las rutas, permitiendo reasignar flujos degradados a otros canales disponibles en lugar de reencaminarlos completamente. Ambas soluciones demuestran ser beneficiosas en este tipo de entornos.
|
8 |
Individual verifiability in electronic votingGuasch Castelló, Sandra 05 February 2016 (has links)
This PhD Thesis is the fruit of the job of the author as a researcher at Scytl Secure Electronic Voting, as well as the collaboration with Paz Morillo, from the Department of Applied Mathematics at UPC and Alex Escala, PhD student.
In her job at Scytl, the author has participated in several electronic voting projects for national-level binding elections in different countries. The participation of the author covered from the protocol design phase, to the implementation phase by providing support to the development teams.
The thesis focuses on studying the mechanisms that can be provided to the voters, in order to examine and verify the processes executed in a remote electronic voting system. This work has been done as part of the tasks of the author at the electronic voting company Scytl. Although this thesis does not talk about system implementations, which are interesting by themselves, it is indeed focused on protocols which have had, or may have, an application in the real world. Therefore, it may surprise the reader by not using state of the art cryptography such as pairings or lattices, which still, although providing very interesting properties, cannot be efficiently implemented and used in a real system. Otherwise, the protocols presented in this thesis use standard and well-known cryptographic primitives, while providing new functionalities that can be applied in nowadays electronic voting systems.
The thesis has the following contents: A survey on electronic voting systems which provide voter verification functionalities. Among these systems we can find the one used in the Municipal and Parliamentary Norwegian elections of 2011 and 2013, and the system used in the Australian State of New South Wales for the General State Elections in 2015, in which the author has had an active participation in the design of their electronic voting protocols. A syntax which can be used for modeling electronic voting systems providing voter verifiability. This syntax is focused on systems characterized by the voter confirming the casting of her vote, after verifying some evidences provided by the protocol. Along with this syntax, definitions for the security properties required for such schemes are provided. A description of the electronic voting protocol and system which has been used in 2014 and 2015 elections in the Swiss Canton of Neuchâtel, which has individual verification functionalities, is also provided in this thesis, together with a formal analysis of the security properties of the scheme and further extensions of the protocol. Finally, two new protocols which provide new functionalities respect to those from the state of the art are proposed: A new protocol providing individual verifiability which allows voters to defend against coertion by generating fake proofs, and a protocol which makes a twist to individual verifiability by ensuring that all the processes executed by the voting device and the remote server are correct, without requiring an active verification from the voter. A formal analysis of the security properties of both protocols is provided, together with examples of implementation in real systems. / Aquesta tesi és fruit de la feina de l'autora com a personal de recerca a la empresa Scytl Secure Electtronic Voting, així com de la col·laboració amb la Paz Morillo, del departament de matemàtica aplicada a la UPC, i el Alex Escala, estudiant de doctorat. A la feina a Scytl, l'autora ha participat a varis projectes de vot electrònic per a eleccions vinculants a nivell nacional, que s'han efectuat a varis països. La participació de la autora ha cobert tant la fase de disseny del protocol, com la fase de implementació, on ha proveït suport als equips de desenvolupament. La tesi estudia els mecanismes que es poden proporcionar als votants per a poder examinar i verificar els processos que s'executen en sistemes de vot electrònic. Tot i que la tesi no parla de la implementació dels sistemes de vot electrònic, sí que s'enfoca en protocols que han tingut, o poden tenir, una aplicació pràctica actualment. La tesi té els continguts següents: Un estudi en sistemes de vot electrònic que proporcionen funcionalitats per a que els votants verifiquin els processos. Entre aquests sistemes, trobem el que es va utilitzar a les eleccions municipals i parlamentàries a Noruega als anys 2011 i 2013, així com el sistema utilitzat a l'estat Australià de New South Wales, per a les eleccions generals de 2015, sistemes en els que l'autora ha participat directament en el diseny dels seus protocols criptogràfics. La tesi també conté una sintaxi que es pot utilizar per modelar sistemes de vot electrònic que proporcionen verificabilitat individual (on verifica el votant). Aquesta sintaxi s'enfoca en sistemes caracteritzats pel fet de que el votant confirma la emissió del seu vot un cop ha verificat unes evidències sobre ell, proporcionades pel protocol. A més de la sintaxi, es proporcionen definicions de les propietats de seguretat d'aquestts sistemes. La tesi també conté una descripció del sistema i protocol de vot electrònic que s'utilitza al cantó Suís de Neuchâtel a partir del 2014, el qual té funcionalitats per a que els votants verifiquin certs processos del sistema. La tesi a més conté un anàlisi de la seguretat de l'esquema, així com possibles extensions del protocol. Finalment, la tesi inclou dos protocols nous que proporcionen noves característiques i funcionalitats respecte als existents a l'estat de l'art de la tècnica. El primer permet a un votant defendre's de un coaccionador generant proves falses, i el segon fa un canvi de paradigma de la verificabilitat individual, de forma que el votant no ha de verificar certs processos per a saber que s'han efectuant correctament. La tesi inclou un anàlisi formal de les propietats de seguretat dels dos protocols, així com exemples de com podrien ser implementats en un escenari real.
|
9 |
Investigación de mercado medición de calidad, servicios en el hogar, agua potable, electricidad, gas, telefonía y televisión pagadaRiquelme Gutiérrez, César Armando January 2004 (has links)
Tesis para optar al Grado de Ingeniero Comercial con Mención en Administración. / La presente investigación se realiza con la finalidad de demostrar que la
percepción de los usuarios sobre las empresas de servicio es errónea, teniendo en cuenta
la satisfacción del cliente como indicador clave.
En el transcurso de la investigación se empleó un estudio exploratorio y el sistema de
encuesta, lo que permitió recopilar información sobre los servicios evaluados.
|
10 |
Graph-based techniques for compression and reconstruction of sparse sourcesRamírez Jávega, Francisco 20 January 2016 (has links)
The main goal of this thesis is to develop lossless compression schemes for analog and binary sources. All the considered compression schemes have as common feature that the encoder can be represented by a graph, so they can be studied employing tools from modern coding theory.
In particular, this thesis is focused on two compression problems: the group testing and the noiseless compressed sensing problems. Although both problems may seem unrelated, in the thesis they are shown to be very close. Furthermore, group testing has the same mathematical formulation as non-linear binary source compression schemes that use the OR operator. In this thesis, the similarities between these problems are exploited.
The group testing problem is aimed at identifying the defective subjects of a population with as few tests as possible. Group testing schemes can be divided into two groups: adaptive and non-adaptive group testing schemes. The former schemes generate tests sequentially and exploit the partial decoding results to attempt to reduce the overall number of tests required to label all members of the population, whereas non-adaptive schemes perform all the test in parallel and attempt to label as many subjects as possible.
Our contributions to the group testing problem are both theoretical and practical. We propose a novel adaptive scheme aimed to efficiently perform the testing process. Furthermore, we develop tools to predict the performance of both adaptive and non-adaptive schemes when the number of subjects to be tested is large. These tools allow to characterize the performance of adaptive and non-adaptive group testing schemes without simulating them.
The goal of the noiseless compressed sensing problem is to retrieve a signal from its lineal projection version in a lower-dimensional space. This can be done only whenever the amount of null components of the original signal is large enough. Compressed sensing deals with the design of sampling schemes and reconstruction algorithms that manage to reconstruct the original signal vector with as few samples as possible.
In this thesis we pose the compressed sensing problem within a probabilistic framework, as opposed to the classical compression sensing formulation. Recent results in the state of the art show that this approach is more efficient than the classical one.
Our contributions to noiseless compressed sensing are both theoretical and practical. We deduce a necessary and sufficient matrix design condition to guarantee that the reconstruction is lossless. Regarding the design of practical schemes, we propose two novel reconstruction algorithms based on message passing over the sparse representation of the matrix, one of them with very low computational complexity. / El objetivo principal de la tesis es el desarrollo de esquemas de compresión sin pérdidas para fuentes analógicas y binarias. Los esquemas analizados tienen en común la representación del compresor mediante un grafo; esto ha permitido emplear en su estudio las herramientas de codificación modernas. Más concretamente la tesis estudia dos problemas de compresión en particular: el diseño de experimentos de testeo comprimido de poblaciones (de sangre, de presencia de elementos contaminantes, secuenciado de ADN, etcétera) y el muestreo comprimido de señales reales en ausencia de ruido. A pesar de que a primera vista parezcan problemas totalmente diferentes, en la tesis mostramos que están muy relacionados. Adicionalmente, el problema de testeo comprimido de poblaciones tiene una formulación matemática idéntica a los códigos de compresión binarios no lineales basados en puertas OR. En la tesis se explotan las similitudes entre todos estos problemas. Existen dos aproximaciones al testeo de poblaciones: el testeo adaptativo y el no adaptativo. El primero realiza los test de forma secuencial y explota los resultados parciales de estos para intentar reducir el número total de test necesarios, mientras que el segundo hace todos los test en bloque e intenta extraer el máximo de datos posibles de los test. Nuestras contribuciones al problema de testeo comprimido han sido tanto teóricas como prácticas. Hemos propuesto un nuevo esquema adaptativo para realizar eficientemente el proceso de testeo. Además hemos desarrollado herramientas que permiten predecir el comportamiento tanto de los esquemas adaptativos como de los esquemas no adaptativos cuando el número de sujetos a testear es elevado. Estas herramientas permiten anticipar las prestaciones de los esquemas de testeo sin necesidad de simularlos. El objetivo del muestreo comprimido es recuperar una señal a partir de su proyección lineal en un espacio de menor dimensión. Esto sólo es posible si se asume que la señal original tiene muchas componentes que son cero. El problema versa sobre el diseño de matrices y algoritmos de reconstrucción que permitan implementar esquemas de muestreo y reconstrucción con un número mínimo de muestras. A diferencia de la formulación clásica de muestreo comprimido, en esta tesis se ha empleado un modelado probabilístico de la señal. Referencias recientes en la literatura demuestran que este enfoque permite conseguir esquemas de compresión y descompresión más eficientes. Nuestras contribuciones en el campo de muestreo comprimido de fuentes analógicas dispersas han sido también teóricas y prácticas. Por un lado, la deducción de la condición necesaria y suficiente que debe garantizar la matriz de muestreo para garantizar que se puede reconstruir unívocamente la secuencia de fuente. Por otro lado, hemos propuesto dos algoritmos, uno de ellos de baja complejidad computacional, que permiten reconstruir la señal original basados en paso de mensajes entre los nodos de la representación gráfica de la matriz de proyección.
|
Page generated in 0.0715 seconds