• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Accesibilidad en entornos web interactivos: superación de las barreras digitales

Pascual Almenara, Afra 16 April 2015 (has links)
A diario, millones de personas sin conocimientos técnicos publican contenido en la web en blogs, wikis, redes sociales, etc. A pesar de existir recomendaciones de accesibilidad, como las pautas WCAG y ATAG de la W3C y que estas se han convertido en normativas (la norma ISO/IEC 40500:2012, la norma UNE 139803:2012 en España, o la Sección 508 en Estados Unidos) e incluso leyes de obligado cumplimiento, la accesibilidad de la web es todavía una característica raramente implementada hoy en día. Los usuarios, inconscientemente, siguen publicando contenido que presenta barreras a las personas con discapacidad y que afectan sus derechos civiles. Esta tesis doctoral explora esta problemática y, con la intención de solucionarla, pone el foco en la comunicación de las barreras de accesibilidad a las personas que publican contenido en la web sin conocimientos técnicos. La hipótesis que fundamenta la tesis es que «reduciendo la complejidad de la información relacionada con la accesibilidad, se propiciaría la aplicación de criterios de autoría accesibles, aumentando la calidad general del contenido web». A partir de técnicas relacionadas con el DCU y la Ingeniería Semiótica (IngSem) se hace una propuesta de comunicación de las barreras de accesibilidad, que se demuestra en una prueba de concepto, el sistema Emphatic Editor for Accessibility (EE4A). / Diàriament, milions de persones sense coneixements tècnics publiquen contingut a la web a blogs, wikis, xarxes socials, etc. Tot i que existeixen recomanacions d’accessibilitat, com les pautes WCAG i ATAG de la W3A i que aquestes s’han convertit en normativa (la norma ISO/IEC 40500:2012, la norma UNE 139803:2012 a Espanya, o la Secció 508 als Estats Units) i a més hi ha lleis d’obligat compliment, l’accessibilitat de la web és encara una característica rarament implementada avui en dia. Els usuaris, inconscientment, segueixen publicant continguts que presenten barreres per a les persones amb discapacitat i que afecta als seus drets civils. Aquesta tesi doctoral explora aquest problemàtica i, amb la intenció de solucionar-la, posa el focus en la comunicació de les barreres d’accessibilitat a les persones que publiquen contingut a la web sense coneixement tècnics. La hipòtesis que fonamenta la tesi és que « reduint la complexitat de la informació relacionada amb l’accessibilitat, es propiciaria l’aplicació de criteris d’autoria accessibles, augmentant la qualitat general del contingut web». A partir de tècniques relacionades amb el DCU i l’Enginyeria Semiòtica (IngSem) es fa una proposta de comunicació de les barreres d’accessibilitat, que es demostra en una prova de concepte, el sistema Emphatic Editor for Accessibility (EE4A). / Every day, thousands of users with non-technical knowledge publish web content on blogs, wikis, social networks, etc. Although there are accessibility recommendations, such as WCAG and ATAG W3C guidelines, and that they have become standards (ISO/IEC 40500: 2012, UNE 139803: 2012 in Spain, or Section 508 in United States) and even mandatory laws, web accessibility is still a feature rarely implemented today. Users, unconscious of accessibility requirements, keep on publishing content which presents barriers to people with disabilities, and which impact their civil rights. This PhD explores this issue, aiming at find a solution, and puts the focus on the communication of accessibility barriers to people who publish web content without technical knowledge. The hypothesis underlying the thesis is that «reducing the complexity of the information related with accessibility would help the application of accessible criteria in authoring, and would increase the overall quality of web content». With techniques related with DCU and Semiotics Engineering (IngSem), the PhD thesis makes a proposal of communication of accessibility barriers, demonstrated through a proof of concept, the Emphatic Editor for Accessibility (EE4A).
292

Hyperspectral image representation and processing with binary partition trees

Valero Valbuena, Silvia 09 December 2012 (has links)
The optimal exploitation of the information provided by hyperspectral images requires the development of advanced image processing tools. Therefore, under the title Hyperspectral image representation and Processing with Binary Partition Trees, this PhD thesis proposes the construction and the processing of a new region-based hierarchical hyperspectral image representation: the Binary Partition Tree (BPT). This hierarchical region-based representation can be interpreted as a set of hierarchical regions stored in a tree structure. Hence, the Binary Partition Tree succeeds in presenting: (i) the decomposition of the image in terms of coherent regions and (ii) the inclusion relations of the regions in the scene. Based on region-merging techniques, the construction of BPT is investigated in this work by studying hyperspectral region models and the associated similarity metrics. As a matter of fact, the very high dimensionality and the complexity of the data require the definition of specific region models and similarity measures. Once the BPT is constructed, the fixed tree structure allows implementing efficient and advanced application-dependent techniques on it. The application-dependent processing of BPT is generally implemented through a specific pruning of the tree. Accordingly, some pruning techniques are proposed and discussed according to different applications. This Ph.D is focused in particular on segmentation, object detection and classification of hyperspectral imagery. Experimental results on various hyperspectral data sets demonstrate the interest and the good performances of the BPT representation
293

On the scalability of LISP and advanced overlaid services

Coras, Florin 23 July 2015 (has links)
In just four decades the Internet has gone from a lab experiment to a worldwide, business critical infrastructure that caters to the communication needs of almost a half of the Earth's population. With these figures on its side, arguing against the Internet's scalability would seem rather unwise. However, the Internet's organic growth is far from finished and, as billions of new devices are expected to be joined in the not so distant future, scalability, or lack thereof, is commonly believed to be the Internet's biggest problem. While consensus on the exact form of the solution is yet to be found, the need for a semantic decoupling of a node's location and identity, often called a location/identity separation, is generally accepted as a promising way forward. Typically, this requires the introduction of new network elements that provide the binding of the two names-paces and caches that avoid hampering router packet forwarding speeds. But due to this increased complexity the solution's scalability is itself questioned. This dissertation evaluates the suitability of using the Locator/ID Separation Protocol (LISP), one of the most successful proposals to follow the location/identity separation guideline, as a solution to the Internet's scalability problem. However, because the deployment of any new architecture depends not only on solving the incumbent's technical problems but also on the added value that it brings, our approach follows two lines. In the first part of the thesis, we develop the analytical tools to evaluate LISP's control plane scalability while in the second we show that the required control/data plane separation provides important benefits that could drive LISP's adoption. As a first step to evaluating LISP's scalability, we propose a methodology for an analytical analysis of cache performance that relies on the working-set theory to estimate traffic locality of reference. One of our main contribution is that we identify the conditions network traffic must comply with for the theory to be applicable and then use the result to develop a model that predicts average cache miss rates. Furthermore, we study the model's suitability for long term cache provisioning and assess the cache's vulnerability in front of malicious users through an extension that accounts for cache polluting traffic. As a last step, we investigate the main sources of locality and their impact on the asymptotic scalability of the LISP cache. An important finding here is that destination popularity distribution can accurately describe cache performance, independent of the much harder to model short term correlations. Under a small set of assumptions, this result finally enables us to characterize asymptotic scalability with respect to the amount of prefixes (Internet growth) and users (growth of the LISP site). We validate the models and discuss the accuracy of our assumptions using several one-day-long packet traces collected at the egress points of a campus and an academic network. To show the added benefits that could drive LISP's adoption, in the second part of the thesis we investigate the possibilities of performing inter-domain multicast and improving intra-domain routing. Although the idea of using overlaid services to improve underlay performance is not new, this dissertation argues that LISP offers the right tools to reliably and easily implement such services due to its reliance on network instead of application layer support. In particular, we present and extensively evaluate Lcast, a network-layer single-source multicast framework designed to merge the robustness and efficiency of IP multicast with the configurability and low deployment cost of application-layer overlays. Additionally, we describe and evaluate LISP-MPS, an architecture capable of exploiting LISP to minimize intra-domain routing tables and ensure, among other, support for multi protocol switching and virtual networks. / En menos de cuatro décadas Internet ha evolucionado desde un experimento de laboratorio hasta una infraestructura de alcance mundial, de importancia crítica para negocios y que atiende a las necesidades de casi un tercio de los habitantes del planeta. Con estos números, es difícil tratar de negar la necesidad de escalabilidad de Internet. Sin embargo, el crecimiento orgánico de Internet está aún lejos de finalizar ya que se espera que mil millones de dispositivos nuevos se conecten en el futuro cercano. Así pues, la falta de escalabilidad es el mayor problema al que se enfrenta Internet hoy en día. Aunque la solución definitiva al problema está aún por definir, la necesidad de desacoplar semánticamente la localización e identidad de un nodo, a menudo llamada locator/identifier separation, es generalmente aceptada como un camino prometedor a seguir. Sin embargo, esto requiere la introducción de nuevos dispositivos en la red que unan los dos espacios de nombres disjuntos resultantes y de cachés que almacenen los enlaces temporales entre ellos con el fin de aumentar la velocidad de transmisión de los enrutadores. A raíz de esta complejidad añadida, la escalabilidad de la solución en si misma es también cuestionada. Este trabajo evalúa la idoneidad de utilizar Locator/ID Separation Protocol (LISP), una de las propuestas más exitosas que siguen la pauta locator/identity separation, como una solución para la escalabilidad de la Internet. Con tal fin, desarrollamos las herramientas analíticas para evaluar la escalabilidad del plano de control de LISP pero también para mostrar que la separación de los planos de control y datos proporciona un importante valor añadido que podría impulsar la adopción de LISP. Como primer paso para evaluar la escalabilidad de LISP, proponemos una metodología para un estudio analítico del rendimiento de la caché que se basa en la teoría del working-set para estimar la localidad de referencias. Identificamos las condiciones que el tráfico de red debe cumplir para que la teoría sea aplicable y luego desarrollamos un modelo que predice las tasas medias de fallos de caché con respecto a parámetros de tráfico fácilmente medibles. Por otra parte, para demostrar su versatilidad y para evaluar la vulnerabilidad de la caché frente a usuarios malintencionados, extendemos el modelo para considerar el rendimiento frente a tráfico generado por usuarios maliciosos. Como último paso, investigamos como usar la popularidad de los destinos para estimar el rendimiento de la caché, independientemente de las correlaciones a corto plazo. Bajo un pequeño conjunto de hipótesis conseguimos caracterizar la escalabilidad con respecto a la cantidad de prefijos (el crecimiento de Internet) y los usuarios (crecimiento del sitio LISP). Validamos los modelos y discutimos la exactitud de nuestras suposiciones utilizando varias trazas de paquetes reales. Para mostrar los beneficios adicionales que podrían impulsar la adopción de LISP, también investigamos las posibilidades de realizar multidifusión inter-dominio y la mejora del enrutamiento dentro del dominio. Aunque la idea de utilizar servicios superpuestos para mejorar el rendimiento de la capa subyacente no es nueva, esta tesis sostiene que LISP ofrece las herramientas adecuadas para poner en práctica de forma fiable y fácilmente este tipo de servicios debido a que LISP actúa en la capa de red y no en la capa de aplicación. En particular, presentamos y evaluamos extensamente Lcast, un marco de multidifusión con una sola fuente diseñado para combinar la robustez y eficiencia de la multidifusión IP con la capacidad de configuración y bajo coste de implementación de una capa superpuesta a nivel de aplicación. Además, describimos y evaluamos LISP-MPS, una arquitectura capaz de explotar LISP para minimizar las tablas de enrutamiento intra-dominio y garantizar, entre otras, soporte para conmutación multi-protocolo y redes virtuales.
294

A multi-agent approach to qualitative navigation in robotics

Busquets, Dídac 28 July 2003 (has links)
La navegació en entorns desconeguts no estructurats és encara un problema obert en el camp de la robòtica. En aquesta tesi presentem una aproximació per a la navegació de robots basada en la combinació de navegació basada en landmarks, representació fuzzy d'angles i distàncies i una coordinació multiagent basada en un mecanisme de dites. L'objectiu de la tesi ha sigut desenvolupar un sistema de navegació robust amb sentit de l'orientació per a entorns no estructurats usant informació visual.Per tal d'assolir aquest objectiu, hem centrat els nostres esforços en dues línies d'investigació: mètodes de navegació i construcció de mapes, i arquitectures de control per a robots autònoms.Pel que fa als mètodes de navegació i construcció de mapes, hem extès el treball presentat per Prescott per tal que es pugui utilitzar amb informació fuzzy sobre la localitazció dels landmarks. A part d'aquesta extensió, tambés hem desenvolupat mètodes per a calcular objectius alternatius, necessaris quan el robot troba el camí bloquejat.Pel que fa a l'arquitectura de control, hem proposat una arquitectura general que utilitza un mecanisme de dites per a coordinar un grup de sistemes que controlen el robot. Aquest mecanisme pot ser usat en diferents nivells de l'arquitectura. En el nostre cas l'hem usat per a coordinar els tres sistemes del robot (Navegació, Pilot i Visió), i tambés per a coordinar els agents que composen el sistema de Navegació. Usant aquest mecanisme de dites, l'acció que executa el robot és la més ben valorada en cada instant. D'aquesta manera, i si els agents fan les dites d'una manera racional, la dinàmica de les dites porta el robot a executar les accions necessàries per tal d'arribar a l'objectiu indicat. L'avantatge d'utilitzar aquest mecanisme és que no cal imposar una jerarquia entre els sistemes, com passa en l'arquitectura de subsumpció, si no que aquesta jerarquia canvia dinàmicament, depenent de la situació en què es troba el robot i les característiques de l'entorn.Hem obtingut resultats satisfactoris, tant en simulació com en experimentació amb un robot real, que confirmen que el sistema de navegació és capaç de construir un mapa d'un entorn desconegut i utlitzar-lo per a moure el robot d'una posició inicial a un objectiu donat. L'experimentació tambés ha mostrat que el sistema de coordinació basat en dites que hem dissenyat produeix el comportament global d'executar les accions necessàries en cada instant per tal d'arribar a l'objectiu. / Navigation in unknown unstructured environments is still a difficult open problem in the field of robotics. In this PhD thesis we present a novel approach for robot navigation based on the combination of landmark-based navigation, fuzzy distances and angles representation and multiagent coordination based on a bidding mechanism. The objective has been to have a robust navigation system with orientation sense for unstructured environments using visual information.To achieve such objective we have focused our efforts on two main threads: navigation and mapping methods, and control architectures for autonomous robots.Regarding the navigation and mapping task, we have extended the work presented by Prescott, so that it can be used with fuzzy information about the locations of landmarks in the environment. Together with this extension, we have also developed methods to compute diverting targets, needed by the robot when it gets blocked.Regarding the control architecture, we have proposed a general architecture that uses a bidding mechanism to coordinate a group of systems that control the robot. This mechanism can be used at different levels of the control architecture. In our case, we have used it to coordinate the three systems of the robot (Navigation, Pilot and Vision systems) and also to coordinate the agents that compose the Navigation system itself. Using this bidding mechanism the action actually being executed by the robot is the most valued one at each point in time, so, given that the agents bid rationally, the dynamics of the biddings would lead the robot to execute the necessary actions in order to reach a given target. The advantage of using such mechanism is that there is no need to create a hierarchy, such in the subsumption architecture, but it is dynamically changing depending on the specific situation of the robot and the characteristics of the environment.We have obtained successful results, both on simulation and on real experimentation, showing that the mapping system is capable of building a map of an unknown environment and use this information to move the robot from a starting point to a given target. The experimentation also showed that the bidding mechanism we designed for controlling the robot produces the overall behavior of executing the proper action at each moment in order to reach the target.
295

Interacting with semantic web data through an automatic information architecture

Brunetti Fernández, Josep Maria 16 December 2013 (has links)
La proliferació d'iniciatives de publicació de dades com Linked Open Data ha incrementat la quantitat de dades semàntiques disponibles per analitzar i reutilitzar, però en molts casos és molt difícil pels usuaris explorar i utilitzar aquestes dades quan no tenen experiència en tecnologies de Web Semàntica. La nostra contribució per a solventar aquest problema és aplicar el Visual Information-Seeking Mantra: “Primer una visió general, enfocar i filtrar, després detalls sota demanda”, implementat utilitzant components de l’Arquitectura de la Informació generats automàticament a partir de les dades i ontologies. Aquesta tesis ofereix algoritmes i mètodes per a generar automàticament components de l'Arquitectura de la Informació per a llocs web basats en dades semàntiques. Gràcies a aquests components és possible explorar les dades, visualitzar-les i crear consultes complexes sense necessitat d'aprendre tecnologies complicades o conèixer els vocabularis utilitzats en els conjunts de dades. Aquesta proposta s'ha implementat i validat a Rhizomer, una eina capaç de publicar conjunts de dades basats en Web Semàntica i que facilita als usuaris interactuar amb elles. Les nostres contribucions s'han avaluat amb usuaris finals com a part d'un Disseny Centrat en l'Usuari. / La proliferación de iniciativas de publicación de datos como Linked Open Data ha incrementado la cantidad de datos disponibles para su análisis y reuso, pero en muchos casos, es muy difícil para los usuarios explorar y utilizar estos datos, especialmente cuando no tienen experiencia en tecnologías de Web Semántica. Nuestra contribución para solventar este problema se basa en aplicar el Visual Information-Seeking Mantra: “Primero una visión general, enfocar y filtrar, después detalles bajo demanda”, implementado utilizando componentes de la Arquitectura de la Información generados automáticamente a partir de los datos y ontologías. Esta tesis ofrece algoritmos y métodos para generar automáticamente componentes de la Arquitectura de la Información para sitios web basados en datos semánticos. Gracias a estos componentes es posible explorar los datos, visualizarlos y crear consultas complejas sin necesidad de aprender tecnologías relacionadas o conocer los vocabularios utilizados en los conjuntos de datos. Esta propuesta se ha implementado y validado en Rhizomer, una herramienta capaz de publicar conjuntos de datos basados en Web Semántica y que facilita a los usuarios interactuar con ellos. Nuestras contribuciones se han evaluado con usuarios finales como parte de un Diseño Centrado en el Usuario. / The proliferation of Linked Open Data and other data publishing initiatives has increased the amount of data available for analysis and reuse. However, in most cases it is very difficult for users to explore and use this data, especially for those without experience with semantic web technologies. Our contribution to solving this problem is applying the Visual Information-Seeking Mantra: “Overview first, zoom and filter, then details-on-demand”, which is implemented using Information Architecture components automatically generated from data and ontologies. This thesis offers algorithms and methods to automatically generate and drive the information architecture components for websites based on semantic web data. Through these components, it is possible to explore and visualize data. Moreover, even lay-users are capable of building complex queries without requiring to learn complicated technologies or knowing the vocabularies used in the explored datasets. This approach has been implemented and tested in Rhizomer, a tool capable of publishing Semantic Web datasets while facilitating user awareness of the published content. Our contributions have been validated with end users as part of a User Centred Design development process.
296

Dynamics of message Interchange between stochastic Units in the contexts of human communication behaviour and spiking neurons

Kaltenbrunner, Andreas 07 March 2008 (has links)
Esta tesis estudia dos diferentes dinámicas de intercambio de mensajes entre unidades estocásticas.Primero, analizamos un conjunto de neuronas estocásticas tipo integración - y - disparo con integración sin pérdidas, un pequeño periodo refractario, y con acoplamiento global y retardado. Se observa una transición de fase acompañada por una histéresis alrededor de un acoplamiento crítico. Para acoplamiento subcrítico el conjunto es gobernado por la dinámica estocástica, mientras que para acoplamiento supracrítico las unidades se organizan en varios subgrupos con actividad auto - sostenida. Un análisis teórico permite caracterizar la transición de fase analíticamente.La segunda parte se centra en la comunicación humana. Examinamos la comunicación entre comunidades de usuarios en Slashdot, u n popular sitio web. Se encuentran patrones regulares en el tiempo de reacción a una nueva noticia tanto para la comunidad como para usuarios individuales. La estadística de estas actividades sigue distribuciones lognormales con leves variaciones causadas por ciclos diarios y semanales. / This thesis studies two different dynamics of message interchange between stochastic u nits.First, we analyze an ensemble of stochastic non - leaky integrate - and - fire neurons with global, delayed and excitatory coupling and a small refractory period. We observe a phase transition accompanied by a hysteresis around a critical coupling strength. For subcritical coupling the ensemble is governed by the stochastic dynamics whereas for supracritical coupling the units organize into several phase - locked clusters with self - sustained activity. Theoretical analysis allows to characterize the phase transition analytically.The second part is focused on human communication behavior. We examine the many - to -many communication activity on the popular website Slashdot. Regular temporal patterns are found in the reaction times of the community and single users to a news - post. The statistics of these activities follow lognormal distributions. Daily and weekly oscillatory cycles cause slight variations of this simple behavior.
297

Part-based object retrieval with binary partition trees

Giró i Nieto, Xavier 31 May 2012 (has links)
This thesis addresses the problem of visual object retrieval, where a user formulates a query to an image database by providing one or multiple examples of an object of interest. The presented techniques aim both at finding those images in the database that contain the object as well as locating the object in the image and segmenting it from the background. Every considered image, both the ones used as queries and the ones contained in the target database, is represented as a Binary Partition Tree (BPT), the hierarchy of regions previously proposed by Salembier and Garrido (2000). This data structure offers multiple opportunities and challenges when applied to the object retrieval problem. A first application of BPTs appears during the formulation of the query, when the user must interactively segment the query object from the background. Firstly, the BPT can assist in adjusting an initial marker, such as a scribble or bounding box, to the object contours. Secondly, BPT can also define a navigation path for the user to adjust an initial selection to the appropriate spatial scale. The hierarchical structure of the BPT is also exploited to extract a new type of visual words named Hierarchical Bag of Regions (HBoR). Each region defined in the BPT is described with a feature vector that combines a soft quantization on a visual codebook with an efficient bottom-up computation through the BPT. These descriptors allow the definition of a novel feature space, the Parts Space, where each object is located according to the parts that compose it. HBoR descriptors have been applied to two scenarios for object retrieval, both of them solved by considering the decomposition of the objects in parts. In the first scenario, the query is formulated with a single object exemplar which is to be matched with each BPT in the target database. The matching problem is solved in two stages: an initial top-down one that assumes that the hierarchy from the query is respected in the target BPT, and a second bottom-up one that relaxes this condition and considers region merges which are not in the target BPT. The second scenario where HBoR descriptors are applied considers a query composed of several visual objects. In this case, the provided exemplars are considered as a training set to build a model of the query concept. This model is composed of two levels, a first one where each part is modelled and detected separately, and a second one that characterises the combinations of parts that describe the complete object. The analysis process exploits the hierarchical nature of the BPT by using a novel classifier that drives an efficient top-down analysis of the target BPTs.
298

Entanglement and non local correlations: quantum resources for information processing

Prettico, Giuseppe 18 January 2013 (has links)
Quantum Information Theory (QIT) studies how information can be processed and transmitted when encoded on quantum states. Practically, it can be understood as the effort to generalize Classical Information Theory to the quantum world. Interestingly, the fact that very-small scale Physics differs considerably from that of macroscopic objects offers a richer structure to the new theory. Among other phenomena, entanglement is at the heart of many quantum information protocols. It is the most spectacular and counter-intuitive manifestation of quantum mechanics: it signifies the existence of non-local correlations. Although intrinsically non-intuitive, these strange effects have been shown to lead to intriguing applications with no classical analogue. The main scope of this thesis is to establish qualitative and quantitative connections among the different quantum and classical information resources. Among the many weird effects that quantum systems present, the non-additivity concept plays an important role. In the quantum realm, the joint processing of two quantum resources is often better than the sum of the two resources. Activation is the strongest manifestation of non-additivity. It can be understood as the capability of two objects to achieve a given task that is impossible for each of them when considered individually. From a classical point of view, it is unknown whether such a process can hold. Here we focus on the classical secret-key rate. We provide two probability distributions conjectured to have bound information, hence from which it is conjectured that no secret key can be extracted when taken individually, but that lead to a positive secret-key rate when combined. For that, we exploit the close connection between the information-theoretic key agreement and the quantum entanglement scenario. Successively, we move to the multipartite scenario showing a one-to-one correspondence between bound information and bound entanglement. We provide an example of multipartite bound information which shares the same features of its quantum analogue, the Smolin state. Later, we move to prove a deep connection between privacy and non-locality. We do it by showing that all private states violate the Bell-CHSH inequality. Private states are those entangled states from which a perfectly secure cryptographic key can be extracted. An example of those is the maximally entangled state. But still, there are other private states that are not maximally entangled. While a maximally entangled state violates a Bell's inequality, this is not known a priori for the whole set. We give a general proof valid for any dimension and any number of parties. Private states, then, not only represent the unit of quantum privacy, but also allow two distant parties to establish a different quantum resource, namely non-local correlations. Lastly, we tackle the connection between non-locality and genuine randomness. Non-locality and genuine intrinsic randomness have been the subject of active interest since the early days of quantum physics. Initially, this interest was mainly derived from their foundational and fundamental implications but recently it also has acquired a practical aspect. Recent development in device independent scenario have heightened the need to quantify both the randomness and non-locality inherent in quantum systems. While some works try to deepen this relation, we provide a simple method to detect Bell tests that allow the certification of maximal randomness. These arguments exploit the symmetries of Bell inequalities and assume the uniqueness of the quantum probability distribution maximally violating it. We show how these arguments can be applied to intuit the randomness intrinsic in a probability distribution without resorting to numerical calculations. / La Teoría de la Información Cuántica (QIT) estudia como la información puede ser procesada y transmitida al codificarse en estados cuánticos. Prácticamente, se puede pensar como la generalización de la Teoría de Información Clásica al mundo cuántico. El hecho que la física a esta escala difiera considerablemente de aquella de los objetos macroscópicos ofrece una mayor riqueza a la estructura de la nueva teoría. Entre otros fenómenos, el entrelazamiento está a la base de muchos protocolos cuánticos. Es la más espectacular y anti-intuitiva manifestación de la mecánica cuántica observada en sistemas cuánticos compuestos: implica la existencia de correlaciones no-locales. No obstante la extrañeza de estos efectos, se han demostrado distintas aplicaciones sin ningún análogo clásico. El objetivo de esta tesis es establecer conexiones cualitativas y cuantitativas entre los diferentes recursos descritos por la teoría cuántica y clásica. Entre los efectos raros que los sistemas cuánticos muestran, la no-aditividad desempeña un papel muy importante. En el mundo cuántico, el uso de dos recursos cuánticos puede ser más ventajoso que la suma de los dos, considerados individualmente. La activación es la mas fuerte manifestación del fenómeno de no-aditividad. Este proceso se puede entender como la capacidad de dos objetos juntos de lograr una tarea que sería imposible por cada uno de ellos singularmente. Desde un punto de vista clásico, es desconocido si existen procesos o cantidades que no respetan la aditividad. Aquí, nos centramos en la tasa de clave secreta. Presentamos aquí dos distribuciones de probabilidad que conjeturamos contener bound information, o sea a partir de la cuales es imposible destilar bits secretos que dan bits secretos cuando utilizadas conjuntamente. Para probar este resultado, utilizamos la conexión existente entre entrelazamiento y el proceso de establecimiento de seguridad. Sucesivamente desplazándonos al caso multipartito, probamos una correspondencia uno a uno entre la bound information y el entrelazamiento no-destilable. Presentamos un ejemplo de bound information multipartita que comparte las mismas propiedades de su análogo cuántico, el estado de Smolin. Luego profundizamos la relación entre privacidad y no-localidad. Probamos que todos los estados que pertenecen al conjunto de estados privados violan una desigualdad de Bell, conocida como CHSH. Los estados privados son aquellos estados entrelazados de los cuales es posible extraer una clave secreta. Un ejemplo de estos estados es el estado máximamente entrelazado, pero hay otros que son privados aunque no máximamente entrelazados. Es conocido que un estado máximamente entrelazado puede violar una desigualdad de Bell, pero lo que se desconoce es si esto pasa para todos los estados privados. Nuestro resultado es general ya que nuestra prueba es válida para cualquier número de partes y cualquier dimensión del espacio local de cada una. Los estados privados, entonces, no solo permiten destilar una clave de forma segura sino que también presentan una propiedad tan fuerte como la no-localidad. Finalmente, investigamos la relación entre los conceptos de no-localidad y de aleatoriedad. Desde los orígenes de la teoría cuántica, los conceptos de no-localidad y de aleatoriedad fueron objeto de gran interés. A principio este interés se debía más a razones relacionadas con los fundamentos de la teoría, pero recientes resultados han empujado la comunidad científica a investigar ulteriormente y sobre todo a cuantificar la no-localidad y la aleatoriedad presente en los estados cuánticos. Aunque algunos autores se hayan movido en esta direccion, muchas preguntas han quedado sin respuestas. Aquí presentamos un simple método que permite detectar aquellas desigualdades de Bell que pueden certificar la presencia de máxima aleatoriedad. Nuestros resultados prueban como simples argumentos pueden dar complejas respuestas sin la necesidad de recorrer a computaciones numéricas.
299

Design and Control of an Electric Energy Conditioning System for a PEM Type Fuel Cell

Malo Barragán, Shane Leonardo 02 December 2009 (has links)
Isolated electric energy generation systems are often needed to supply electric loads where the electrical network is not available. This could be caused due to geographic isolation, the necessity of load mobility, demanded values of voltage and current that are not compatible with the local networks, etc. This makes the design and construction of stand-alone energy generation systems a must.Modern designs are being pushed towards cleaner technologies. The experience has shown that the usual methods employed to produce electrical energy are not sustainable, especially because of environmental concerns. Usual stand-alone energy generation systems employ batteries and fuel engines. Batteries offer a cheap mean to feed the generation system but need rigorous maintenance routines, the substances used in their construction are strong pollutants, offer relatively low durability and the ratio charge time/discharge time is too high. Fuel engines extract their energy from petroleum based fuels, and as its well known, pollute their surrounding environment in several ways producing smoke, noise and heat.Polymer electrolyte membrane type fuel cells are among the new technologies that are being considered as a good alternative to the traditional power sources used for stand-alone energy generation systems.AIthough the basic principles of operation of the fuel cells are known since 1839, this is a technology that is far from being mature. More work needs to be done in order to make of the fuel cells systems with, high reliability, with maximum efficiency, and capable of providing electrical energy with quality comparable to the quality achieved using usual methods.The problems when working with fuel cells can be split in two big groups of interest, the first, being the handling and control of the electrochemical variables, and the second, the handling and control of the electrical variables taking care of the limits imposed by the dynamics of the fuel cell unit. This work deals with the second group of concerns, looking at the fuel cell as a black-box dc power supply with certain current/voltage characteristics. The energy provided by the fuel cells needs to be conditioned to the levels and characteristics required by the loads to be fed. In Europe, for single-phase ac loads, the specifications are a sinusoidal output voltage with 230 V ac rms and a frequency of 50 Hz. This work presents the the analysis, design, construction, and control of the electric energy conditioning system for a polymer eIectrolyte membrane type fuel cell to act as an stand-alone dc-ac inverter to feed linear or nonlinear loads with big variations. / Los sistemas de generación de energía eléctrica "en isla" son necesarios en muchas ocasiones para alimentar cargas donde la red eléctrica no está disponible. Esto puede deberse a diversos factores como: aislamiento geográfico, necesidad de movilidad de la carga, requerimientos de corriente y voltaje que no son compatibles con las redes locales, etc. Todas estas razones hacen del diseño y construcción de sistemas autónomos de generación de energía una necesidad.En la actualidad, los diseños de este tipo de dispositivos están tendiendo hacia tecnologías más limpias.La experiencia ha enseñado que los métodos habituales para producir energía eléctrica no son los más apropiados, especialmente por motivos medioambientales. Los sistemas autónomos de generación de energía eléctrica típicos utilizan baterías y máquinas de combustión. Las baterías ofrecen una fuente barata para alimentar el sistema de generación de energía eléctrica, pero necesitan de rigurosas rutinas de mantenimiento, algunas de las sustancias utilizadas en su construcción son altamente contaminantes, ofrecen una relativamente baja durabilidad y la razón tiempo de carga/tiempo de descarga es grande.Por otro lado, las máquinas de combustión extraen la energía de combustibles a base de petróleo, como es bien conocido, contaminan el entorno produciendo humo, ruido y calor.Las pilas de combustible de membrana de electrolito polimérico están entre las nuevas tecnologías que se consideran como una buena alternativa a las fuentes que se utilizan usualmente para alimenta sistemas autónomos de generación de energía. Aunque los principios básicos de operación de las pilas de combustible son conocidos desde 1839, esta es una tecnología que está aún lejos de pode considerarse madura. Aún es necesario realizar más esfuerzos con el objetivo de hacer de las pilas de combustible fuentes de energía de alta confiabilidad, de máxima eficiencia y capaces de proveer energía con niveles de calidad comparables a los alcanzados al utilizar los métodos tradicionales.La problemática que se presenta al trabajar con pilas de combustible puede ser dividida en dos grandes grupos de interés, el primero, sería el control de las variables electroquímicas, y el segundo, el manejo control de las variables eléctricas tomando en cuenta los límites impuestos por la dinámica de la pila de combustible. Éste trabajo trata con el segundo, viendo la pila de combustible como una "caja negra" que constituye una fuente de potencia de corriente continua con ciertas características particulares de voltaje/corriente. La energía provista por la pila de combustible debe ser acondicionada a los niveles características requeridas por las cargas a ser alimentadas. En Europa, para sistemas de monofásico de corriente alterna, las especificaciones son un voltaje sinusoidal con 230 V efectivos y una frecuencia de 50 Hz. Éste trabajo presenta el análisis, diseño, construcción y control del sistema de acondicionamiento de energía eléctrica para una pila de combustible de membrana de electrolito polimérico, que actúa como un sistema autónomo de inversión de corriente continua-corriente alterna para alimentar cargas lineales o no lineales que pueden experimentar grandes variaciones.
300

Addressing practical challenges for anomaly detection in backbone networks

Paredes Oliva, Ignasi 29 July 2013 (has links)
Network monitoring has always been a topic of foremost importance for both network operators and researchers for multiple reasons ranging from anomaly detection to tra c classi cation or capacity planning. Nowadays, as networks become more and more complex, tra c increases and security threats reproduce, achieving a deeper understanding of what is happening in the network has become an essential necessity. In particular, due to the considerable growth of cybercrime, research on the eld of anomaly detection has drawn signi cant attention in recent years and tons of proposals have been made. All the same, when it comes to deploying solutions in real environments, some of them fail to meet some crucial requirements. Taking this into account, this thesis focuses on lling this gap between the research and the non-research world. Prior to the start of this work, we identify several problems. First, there is a clear lack of detailed and updated information on the most common anomalies and their characteristics. Second, unawareness of sampled data is still common although the performance of anomaly detection algorithms is severely a ected. Third, operators currently need to invest many work-hours to manually inspect and also classify detected anomalies to act accordingly and take the appropriate mitigation measures. This is further exacerbated due to the high number of false positives and false negatives and because anomaly detection systems are often perceived as extremely complex black boxes. Analysing an issue is essential to fully comprehend the problem space and to be able to tackle it properly. Accordingly, the rst block of this thesis seeks to obtain detailed and updated real-world information on the most frequent anomalies occurring in backbone networks. It rst reports on the performance of di erent commercial systems for anomaly detection and analyses the types of network nomalies detected. Afterwards, it focuses on further investigating the characteristics of the anomalies found in a backbone network using one of the tools for more than half a year. Among other results, this block con rms the need of applying sampling in an operational environment as well as the unacceptably high number of false positives and false negatives still reported by current commercial tools. On the whole, the presence of ampling in large networks for monitoring purposes has become almost mandatory and, therefore, all anomaly detection algorithms that do not take that into account might report incorrect results. In the second block of this thesis, the dramatic impact of sampling on the performance of well-known anomaly detection techniques is analysed and con rmed. However, we show that the results change signi cantly depending on the sampling technique used and also on the common metric selected to perform the comparison. In particular, we show that, Packet Sampling outperforms Flow Sampling unlike previously reported. Furthermore, we observe that Selective Sampling (SES), a sampling technique that focuses on small ows, obtains much better results than traditional sampling techniques for scan detection. Consequently, we propose Online Selective Sampling, a sampling technique that obtains the same good performance for scan detection than SES but works on a per-packet basis instead of keeping all ows in memory. We validate and evaluate our proposal and show that it can operate online and uses much less resources than SES. Although the literature is plenty of techniques for detecting anomalous events, research on anomaly classi cation and extraction (e.g., to further investigate what happened or to share evidence with third parties involved) is rather marginal. This makes it harder for network operators to analise reported anomalies because they depend solely on their experience to do the job. Furthermore, this task is an extremely time-consuming and error-prone process. The third block of this thesis targets this issue and brings it together with the knowledge acquired in the previous blocks. In particular, it presents a system for automatic anomaly detection, extraction and classi cation with high accuracy and very low false positives. We deploy the system in an operational environment and show its usefulness in practice. The fourth and last block of this thesis presents a generalisation of our system that focuses on analysing all the tra c, not only network anomalies. This new system seeks to further help network operators by summarising the most signi cant tra c patterns in their network. In particular, we generalise our system to deal with big network tra c data. In particular, it deals with src/dst IPs, src/dst ports, protocol, src/dst Autonomous Systems, layer 7 application and src/dst geolocation. We rst deploy a prototype in the European backbone network of G EANT and show that it can process large amounts of data quickly and build highly informative and compact reports that are very useful to help comprehending what is happening in the network. Second, we deploy it in a completely di erent scenario and show how it can also be successfully used in a real-world use case where we analyse the behaviour of highly distributed devices related with a critical infrastructure sector. / La monitoritzaci o de xarxa sempre ha estat un tema de gran import ancia per operadors de xarxa i investigadors per m ultiples raons que van des de la detecci o d'anomalies fins a la classi caci o d'aplicacions. Avui en dia, a mesura que les xarxes es tornen m es i m es complexes, augmenta el tr ansit de dades i les amenaces de seguretat segueixen creixent, aconseguir una comprensi o m es profunda del que passa a la xarxa s'ha convertit en una necessitat essencial. Concretament, degut al considerable increment del ciberactivisme, la investigaci o en el camp de la detecci o d'anomalies ha crescut i en els darrers anys s'han fet moltes i diverses propostes. Tot i aix o, quan s'intenten desplegar aquestes solucions en entorns reals, algunes d'elles no compleixen alguns requisits fonamentals. Tenint aix o en compte, aquesta tesi se centra a omplir aquest buit entre la recerca i el m on real. Abans d'iniciar aquest treball es van identi car diversos problemes. En primer lloc, hi ha una clara manca d'informaci o detallada i actualitzada sobre les anomalies m es comuns i les seves caracter stiques. En segona inst ancia, no tenir en compte la possibilitat de treballar amb nom es part de les dades (mostreig de tr ansit) continua sent bastant est es tot i el sever efecte en el rendiment dels algorismes de detecci o d'anomalies. En tercer lloc, els operadors de xarxa actualment han d'invertir moltes hores de feina per classi car i inspeccionar manualment les anomalies detectades per actuar en conseqüencia i prendre les mesures apropiades de mitigaci o. Aquesta situaci o es veu agreujada per l'alt nombre de falsos positius i falsos negatius i perqu e els sistemes de detecci o d'anomalies s on sovint percebuts com caixes negres extremadament complexes. Analitzar un tema es essencial per comprendre plenament l'espai del problema i per poder-hi fer front de forma adequada. Per tant, el primer bloc d'aquesta tesi pret en proporcionar informaci o detallada i actualitzada del m on real sobre les anomalies m es freqüents en una xarxa troncal. Primer es comparen tres eines comercials per a la detecci o d'anomalies i se n'estudien els seus punts forts i febles, aix com els tipus d'anomalies de xarxa detectats. Posteriorment, s'investiguen les caracter stiques de les anomalies que es troben en la mateixa xarxa troncal utilitzant una de les eines durant m es de mig any. Entre d'altres resultats, aquest bloc con rma la necessitat de l'aplicaci o de mostreig de tr ansit en un entorn operacional, aix com el nombre inacceptablement elevat de falsos positius i falsos negatius en eines comercials actuals. En general, el mostreig de tr ansit de dades de xarxa ( es a dir, treballar nom es amb una part de les dades) en grans xarxes troncals s'ha convertit en gaireb e obligatori i, per tant, tots els algorismes de detecci o d'anomalies que no ho tenen en compte poden veure seriosament afectats els seus resultats. El segon bloc d'aquesta tesi analitza i confi rma el dram atic impacte de mostreig en el rendiment de t ecniques de detecci o d'anomalies plenament acceptades a l'estat de l'art. No obstant, es mostra que els resultats canvien signi cativament depenent de la t ecnica de mostreig utilitzada i tamb e en funci o de la m etrica usada per a fer la comparativa. Contr ariament als resultats reportats en estudis previs, es mostra que Packet Sampling supera Flow Sampling. A m es, a m es, s'observa que Selective Sampling (SES), una t ecnica de mostreig que se centra en mostrejar fluxes petits, obt e resultats molt millors per a la detecci o d'escanejos que no pas les t ecniques tradicionals de mostreig. En conseqü encia, proposem Online Selective Sampling, una t ecnica de mostreig que obt e el mateix bon rendiment per a la detecci o d'escanejos que SES, per o treballa paquet per paquet enlloc de mantenir tots els fluxes a mem oria. Despr es de validar i evaluar la nostra proposta, demostrem que es capa c de treballar online i utilitza molts menys recursos que SES. Tot i la gran quantitat de tècniques proposades a la literatura per a la detecci o d'esdeveniments an omals, la investigaci o per a la seva posterior classi caci o i extracci o (p.ex., per investigar m es a fons el que va passar o per compartir l'evid encia amb tercers involucrats) es m es aviat marginal. Aix o fa que sigui m es dif cil per als operadors de xarxa analalitzar les anomalies reportades, ja que depenen unicament de la seva experi encia per fer la feina. A m es a m es, aquesta tasca es un proc es extremadament lent i propens a errors. El tercer bloc d'aquesta tesi se centra en aquest tema tenint tamb e en compte els coneixements adquirits en els blocs anteriors. Concretament, presentem un sistema per a la detecci o extracci o i classi caci o autom atica d'anomalies amb una alta precisi o i molt pocs falsos positius. Adicionalment, despleguem el sistema en un entorn operatiu i demostrem la seva utilitat pr actica. El quart i ultim bloc d'aquesta tesi presenta una generalitzaci o del nostre sistema que se centra en l'an alisi de tot el tr ansit, no nom es en les anomalies. Aquest nou sistema pret en ajudar m es als operadors ja que resumeix els patrons de tr ansit m es importants de la seva xarxa. En particular, es generalitza el sistema per fer front al "big data" (una gran quantitat de dades). En particular, el sistema tracta IPs origen i dest i, ports origen i destí , protocol, Sistemes Aut onoms origen i dest , aplicaci o que ha generat el tr ansit i fi nalment, dades de geolocalitzaci o (tamb e per origen i dest ). Primer, despleguem un prototip a la xarxa europea per a la recerca i la investigaci o (G EANT) i demostrem que el sistema pot processar grans quantitats de dades r apidament aix com crear informes altament informatius i compactes que s on de gran utilitat per ajudar a comprendre el que est a succeint a la xarxa. En segon lloc, despleguem la nostra eina en un escenari completament diferent i mostrem com tamb e pot ser utilitzat amb exit en un cas d' us en el m on real en el qual s'analitza el comportament de dispositius altament distribuïts.

Page generated in 0.2524 seconds