• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 77
  • 32
  • 1
  • Tagged with
  • 371
  • 368
  • 367
  • 364
  • 364
  • 65
  • 56
  • 41
  • 40
  • 40
  • 36
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Development of semi-classical and quantum tools for the high-frequency simulation of nanoscale electron devices

Benali, Abdelilah 29 November 2013 (has links)
La electrónica envuelve muchos aspectos de nuestra vida cotidiana. El progreso de nuestra sociedad actual, en última instancia, está relacionado con el progreso de la electrónica. Tal progreso exige que las nuevas generaciones de dispositivos sean cada vez mas pequeñas y mas rapidas. Por lo tanto , las herramientas de simulación necesarias para poder entender el comportamiento de los dispositivos electrónicos emergentes, y luego de mejorarlos , tiene que ser reinventada para cada nueva generación de dispositivos . El ”International Technology Roadmap for Semiconductors” predice que en diez años los dispositivos electrónicos tendrán menos de 10 nanómetros de longitud de canal y que trabajarán a frecuencias de THz . La comunidad cientifica ha hecho una importante esfuerzo en proporcionar herramientas de simulación fiables para estudiar el comportamiento DC de estos dispositivos. Algunas de las técnicas de simulació comunes par sistemas clásicos y cuánticos se menciona en el primer captulo. Sin embargo, un esfuerzo similar para la simulaci ón cuántica de comportamiento AC de tales dispositivos esta todavía en las primeras etapas de la eleboración. Para los dispositivos de nanoescala , a alta frecuencia , las principales dificultades que tienen que ser considerarse para caracterizar el comportamiento de AC de estos dispositivos es el papel de la corriente de desplazamiento (que implica una aproximación adecuada para el problema cuático de muchos cuerpos ) y constatación que la corriente AC implica que el sistemas cuántico se medirán de forma continua . En esta tesis se ofrece una solución aproximada a mediante el uso de trayectorias cuánticas (trayectorias Bohmianas). Como se observa en el segundo capítulo las trayectorias de Bohm tienen ventajas computacionales cuando tratamos con muchos problemas de muchas partículas o la medición continua . En el capítulo tres , el cálculo práctico de las corrientes de partículas de desplazamiento se discuten con el teorema de Ramo - Shockley - Pellegrini. Hemos presentado un extensin cuántica del teorema utilizando trayectorias Bohmianas. También se discute en detalle la aplicación del teorema para del desarrollo del simulador cuántico el BITLLES ( Bohmiana Transporte para obrar recíprocamente no equilibrio estructuras electrónicas ) discutido en el apéndice C. Las expresiones de la corriente total se pueden utilizar ya sea para soluciones clásica de Monte Carlo de la ecuación de Botzmann con trayectorias clásicas o solución de la ecuación Schrödinger de muchas partículas con trayectorias Bohmianas. Por último , el uso de las herramientas desarrolladas en esta tesis se usan , en el capítulo cuatro, para estudiar la dependencia de la corriente y el ruido en la geometría y las condiciones de contorno electrostática de nanotransistors . Además , hemos presentado una estrategia original para mejorar el frecuencia corte de dispositivos emergentes balísticos de múltiples puerta. Esta tesis es un paso en la dirección de proporcionar un simulador quántico para AC y ruido a la industria electrónica y a la comunidad científica.nica envuelve muchos aspectos de nuestra vida cotidiana. El progreso de nuestra sociedad actual, en última instancia, está relacionado con el progreso de la electrónica. Tal progreso exige que las nuevas generaciones de dispositivos sean cada vez mas pequeñas y mas rapidas. Por lo tanto , las herramientas de simulación necesarias para poder entender el comportamiento de los dispositivos electrónicos emergentes, y luego de mejorarlos , tiene que ser reinventada para cada nueva generación de dispositivos . El ”International Technology Roadmap for Semiconductors” predice que en diez años los dispositivos electrónicos tendrán menos de 10 nanómetros de longitud de canal y que trabajar án a frecuencias de THz . La comunidad cientifica ha hecho una importante esfuerzo en proporcionar herramientas de simulación fiables para estudiar el comportamiento DC de estos dispositivos. Algunas de las técnicas de simulació comunes par sistemas clásicos y cuánticos se menciona en el primer captulo. Sin embargo, un esfuerzo similar para la simulaci ón cuántica de comportamiento AC de tales dispositivos esta todavía en las primeras etapas de la eleboración. Para los dispositivos de nanoescala , a alta frecuencia , las principales dificultades que tienen que ser considerarse para caracterizar el comportamiento de AC de estos dispositivos es el papel de la corriente de desplazamiento (que implica una aproximación adecuada para el problema cuático de muchos cuerpos ) y constatación que la corriente AC implica que el sistemas cuántico se medirán de forma continua . En esta tesis se ofrece una solución aproximada a mediante el uso de trayectorias cuánticas (trayectorias Bohmianas). Como se observa en el segundo capítulo las trayectorias de Bohm tienen ventajas computacionales cuando tratamos con muchos problemas de muchas partículas o la medición continua . En el capítulo tres , el cálculo práctico de las corrientes de partículas de desplazamiento se discuten con el teorema de Ramo - Shockley - Pellegrini. Hemos presentado un extensin cuántica del teorema utilizando trayectorias Bohmianas. También se discute en detalle la aplicación del teorema para del desarrollo del simulador cuántico el BITLLES ( Bohmiana Transporte para obrar recíprocamente no equilibrio estructuras electrónicas ) discutido en el apéndice C. Las expresiones de la corriente total se pueden utilizar ya sea para soluciones clásica de Monte Carlo de la ecuación de Botzmann con trayectorias clásicas o solución de la ecuación Schr¨odinger de muchas partículas con trayectorias Bohmianas. Por último , el uso de las herramientas desarrolladas en esta tesis se usan , en el capítulo cuatro, para estudiar la dependencia de la corriente y el ruido en la geometría y las condiciones de contorno electrostática de nanotransistors . Además , hemos presentado una estrategia original para mejorar el frecuencia corte de dispositivos emergentes balísticos de múltiples puerta. Esta tesis es un paso en la dirección de proporcionar un simulador quántico para AC y ruido a la industria electrónica y a la comunidad científica. / Electronics surrounds many aspects of our everyday life. The progress of our actual society is somehow ultimately linked to the progress of electronics. Such progress demands smaller and faster devices. Therefore, the simulations tools needed to be able, to understand the behavior of emerging electron devices and to improve them, have to be reinvented for each new generation of devices. The International Technology Roadmap for Semiconductors predicts that, in ten years, electron devices will have less than 10 nanometers of channel length and they will work at THz frequencies. The scientific community has done an important effort to provide reliable simulations tools for studying the DC behavior of state-of-the-art nanoscale devices. Some of the common classical and quantum simulation techniques are mentioned in the first chapter. However, a similar effort for the the quantum simulation of the AC performance of such nano metric and THz devices is still missing. For nanoscale devices, at high frequency, the main difficulties that have to be taken into account are the role of the displacement current (which imply a proper approximation for the many-body problem) and the assumption that the total quantum current needs to be continuously measured. This thesis provides an approximate solution to these problems through the use of quantum (Bohmian) trajectories. As seen in the second chapter, such Bohmian trajectories have advantages, from the computational point of view when we deal with the many body problem or the continuous measurement. In chapter three, the practical computation of the particle and displacement currents are discussed using the so called Ramo-Shockley-Pellegrini theorem. We have presented a quantum extension of the theorem using Bohmian (trajectories). We also discuss in detail the implementation of the theorem in the BITLLES (Bohmian Interacting Transport for non- equiLibrium eLEctronic Structures) simulator discussed in the appendix C. The expressions of the total current can be used either for classical Monte Carlo solutions of the Botzmann equation with classical trajectories or for the many-particle Schr¨odinger equation with Bohmian trajectories. Finally, using the tools developed in the previous chapters of this thesis, in chapter four, we have studied the dependence of the current and the noise on the geometry and the electrostatic boundary conditions of nanotransistors. In addition, we have presented and original strategy to improve the cut off frequency of emerging multi-gate ballistic devices. These numerical studies have been carried out by means of the BITLLES simulator for classical and quantum scenarios. This thesis is a step in the direction of providing a reliable dynamic quantum simulator to the industry and the scientific community.
192

Wake-up radio systems : design, development, performance evaluation and comparison to conventional medium access control protocols for wireless sensor networks

Oller i Bosch, Joaquim 06 March 2015 (has links)
During the recent years, the research related to Wake-up Radio (WuR) systems has gained noticeable interest. In WuR systems, a node initiating a communication first sends a Wake-up Call (WuC) by means of its Wake-up Transmitter (WuTx), to the Wake-up Receiver (WuRx) of a remote node to activate it in an on-demand manner. Until the reception of the WuC, the node's MCU and main data transceiver are in sleep mode. Hence, WuR drastically reduce the power required by wireless nodes. This thesis provides a complete analysis of several WuR designs vs. conventional MAC protocols for Wireless Sensor Networks (WSN). The research is performed in an incremental fashion and includes hardware, softwar and simulation topics. WuR systems enable energy savings in plenty of different applications, e.g., retrieving information from environmental pollution sensors placed in a city by a mobile collector node, or activating a sleeping wireless AP. They are easy to program in and provide implicit synchronization. However, achieving a good WuRx design may become a challenge because power amplifiers cannot be used for the sake of energy. The system proposed in chapter 2 is a successful WuR system prototype. The so-called SµA-WuRx is less complex than commercial WuR systems, it is cheaper from the monetary point of view, requires several times less energy and allows for up to 15 meters of communication, an adequate value for WuR systems. However, the system can be improved by including several desirable features, such as longer operational ranges and/or addressing mechanisms. The so-called Time-Knocking (TicK) addressing strategy, analyzed in chapter 3, enables energy efficient node addressing by varying the time between WuCs received by a MCU. TicK allows for variable length addresses and multicast. A WuR system may not fit any possible application. Thus, while the SµA-WuRx and TicK efficiently solved many of the requirements of single-hop and data-collector applications, they lack of flexibility. Instead, SCM-WuR systems in chapter 4 feature an outstanding trade-off between hardware complexity, current consumption and operational range, and even enable multi-hop wake-up for long remote sensor measure collection. To contextualize the WuR systems developed, chapter 5 provides an overview of the most important WuR systems as of 2014. Developing a MAC protocol which performs acceptably in a wide range of diverse applications is a very difficult task. Comparatively, SCM-WuR systems perform properly in all the use cases (single and multi-hop) presented in chapter 6. Bluetooth Low Energy, or BLE, appears as a duty-cycled MAC protocol mainly targeting single-hop applications. Because of its clearly defined use cases and its integration with its upper application layers, BLE appears as an extremely energy-efficient protocol that cannot be easily replaced by WuR. Because of all these aspects, the performance of BLE is analyzed in chapter 7. Finally, chapter 8 tries to solve one of the issues affecting WuR systems, that is, the need for extra hardware. While this issue seems difficult to solve for WuRx, the chapter provides ideas to use IEEE 802.11-enabled devices as WuTx. / Durant els últims anys, la investigació relativa als sistemes de Ràdios de Wake-up (de l'anglès Wake-up Radio, WuR) ha experimentat un interès notable. En aquests sistemes, un node inicia la comunicació inal.làmbrica transmetent una Wake-up Call (WuC), per mitjà del seu transmissor de Wake-up (WuTx), dirigida al receptor de Wake-up (WuRx) del node remot. Aquesta WuC activa el node remot, el microcontrolador (MCU) i la ràdio principals del qual han pogut romandre en mode "sleep" fins el moment. Així doncs, els sistemes WuR permeten un estalvi dràstic de l'energia requerida pels nodes sense fils. Aquesta tesi proposa diferents sistemes WuR i els compara amb protocols MAC existents per a xarxes de sensors sense fils (Wireless Sensor Networks, WSN). La investigació es realitza de forma progressiva i inclou hardware, software i simulació. Els sistemes WuR permeten un estalvi energètic notable en moltes aplicacions: recol¿lecció d'informació ambiental, activació remota de punts d'accés wi-fi, etc. Són fàcils de programar en software i comporten una sincronització implícita entre nodes. Malauradament, un consum energètic mínim impossibilita l'ús d'amplificadors de potència, i dissenyar-los esdevé un repte. El sistema presentat en el capítol 2 és un prototip exitós de sistema WuR. De nom SµA-WuR, és més senzill que alternatives comercials, és més econòmic, requereix menys energia i permet distàncies de comunicació WuR majors, de fins a 15 metres. L'estratègia d'adreçament Time-KnocKing, presentada en el capítol 3, permet dotar l'anterior SµA-WuR d'una forma d'especificar el node adreçat, permetent estalvi energètic a nivell de xarxa. TicK opera codificant el temps entre diferents WuC. Depenent del temps entre intervals, es desperten el/s node/s desitjats d'una forma extremadament eficient. Tot i els seus beneficis, hi ha aplicacions no implementables amb el sistema SµA-WuR. Per a aquest motiu, en el capítol 4 es presenta el sistema SCM-WuR, que ofereix un rang d'operació de 40 a 100 metres a canvi d'una mínima complexitat hardware afegida. SCM-WuR cobreix el ventall d'aplicacions del sistema SµA-WuRx, i també les que requereixen multi-hop a nivell WuR. El capítol 5 de la tesi compara els dos sistemes WuR anteriors vers les propostes més importants fins el 2014. El capítol 6 inclou un framework de simulació complet amb les bases per a substituir els sistemes basats en duty-cycling a WuR. Degut a que desenvolupar un protocol MAC que operi acceptablement bé en multitud d'aplicacions esdevé una tasca pràcticament impossible, els sistemes WuR presentats amb anterioritat i modelats en aquest capítol representen una solució versàtil, interessant i molt més eficient des del punt de vista energètic. Bluetooth Low Energy, o Smart, o BLE, representa un cas d'aplicació específica on, degut a la gran integració a nivell d'aplicació, la substitució per sistemes de WuR esdevé difícil Per a aquesta raó, i degut a que es tracta d'un protocol MAC extremadament eficient energèticament, aquesta tesi conté una caracterització completa de BLE en el capítol 7. Finalment, el capítol 8 soluciona un dels inconvenients del sistemes WuR, el disseny de WuTx específics, presentant una estratègia per a transformar qualsevol dispositiu IEEE 802.11 en WuTx.
193

Certificate status information distribution and validation in vehicular networks

Hernández Gañán, Carlos 04 September 2013 (has links)
Tesi per compendi de publicacions. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu de la UPC / Vehicular ad hoc networks (VANETs) are emerging as an functional technology for providing a wide range of applications to vehicles and passengers. Ensuring secure functioning is one of the prerequisites for deploying reliable VANETs. The basic solution envisioned to achieve these requirements is to use digital certificates linked to a user by a trusted third party. These certificates can then be used to sign information. Most of the existing solutions manage these certificates by means of a central Certification Authority (CA). According to IEEE 1609.2 standard, vehicular networks will rely on the public key infrastructure (PKI). In PKI, a CA issues an authentic digital certificate for each node in the network. Therefore, an efficient certificate management is crucial for the robust and reliable operation of any PKI. A critical part of any certificate-management scheme is the revocation of certificates. The distribution of certificate status information process, as well as the revocation process itself, is an open research problem for VANETs.In this thesis, firstly we analyze the revocation process itself and develop an accurate and rigorous model for certificate revocation. One of the key findings of our analysis is that the certificate revocation process is statistically self-similar. As none of the currently common formal models for revocation is able to capture the self-similar nature of real revocation data, we develop an ARFIMA model that recreates this pattern. We show that traditional mechanisms that aim to scale could benefit from this model to improve their updating strategies.Secondly, we analyze how to deploy a certificate status checking service for mobile networks and we propose a new criterion based on a risk metric to evaluate cached status data. With this metric, the PKI is able to code information about the revocation process in the standard certificate revocation lists. Thus, users can evaluate a risk function in order to estimate whether a certificate has been revoked while there is no connection to a status checking server. Moreover, we also propose a systematic methodology to build a fuzzy system that assists users in the decision making process related to certificate status checking.Thirdly, we propose two novel mechanisms for distributing and validating certificate status information (CSI) in VANET. This first mechanism is a collaborative certificate status checking mechanism based on the use based on an extended-CRL. The main advantage of this extended-CRL is that the road-side units and repository vehicles can build an efficient structure based on an authenticated hash tree to respond to status checking requests inside the VANET, saving time and bandwidth. The second mechanism aims to optimize the trade- off between the bandwidth necessary to download the CSI and the freshness of the CSI. This mechanism is based on the use of a hybrid delta-CRL scheme and Merkle hash trees, so that the risk of operating with unknown revoked certificates remains below a threshold during the validity interval of the base-CRL, and CAs have the ability to manage this risk by setting the size of the delta-CRLs. Finally, we also analyze the impact of the revocation service in the certificate prices. We model the behavior of the oligopoly of risk-averse certificate providers that issue digital certificates to clients facing iden- tical independent risks. We found the equilibrium in the Bertrand game. In this equilibrium, we proof that certificate providers that offer better revocation information are able to impose higher prices to their certificates without sacrificing market share in favor of the other oligarchs. / Las redes vehiculares ad hoc (VANETs) se están convirtiendo en una tecnología funcional para proporcionar una amplia gama de aplicaciones para vehículos y pasajeros. Garantizar un funcionamiento seguro es uno de los requisitos para el despliegue de las VANETs. Sin seguridad, los usuarios podrían ser potencialmente vulnerables a la mala conducta de los servicios prestados por la VANET. La solución básica prevista para lograr estos requisitos es el uso de certificados digitales gestionados a través de una autoridad de certificación (CA). De acuerdo con la norma IEEE 1609.2, las redes vehiculares dependerán de la infraestructura de clave pública (PKI). Sin embargo, el proceso de distribución del estado de los certificados, así como el propio proceso de revocación, es un problema abierto para VANETs.En esta tesis, en primer lugar se analiza el proceso de revocación y se desarrolla un modelo preciso y riguroso que modela este proceso conluyendo que el proceso de revocación de certificados es estadísticamente auto-similar. Como ninguno de los modelos formales actuales para la revocación es capaz de capturar la naturaleza auto-similar de los datos de revocación, desarrollamos un modelo ARFIMA que recrea este patrón. Mostramos que ignorar la auto-similitud del proceso de revocación lleva a estrategias de emisión de datos de revocación ineficientes. El modelo propuesto permite generar trazas de revocación sintéticas con las cuales los esquemas de revocación actuales pueden ser mejorados mediante la definición de políticas de emisión de datos de revocación más precisas. En segundo lugar, se analiza la forma de implementar un mecanismo de emisión de datos de estado de los certificados para redes móviles y se propone un nuevo criterio basado en una medida del riesgo para evaluar los datos de revocación almacenados en la caché. Con esta medida, la PKI es capaz de codificar la información sobre el proceso de revocación en las listas de revocación. Así, los usuarios pueden estimar en función del riesgo si un certificado se ha revocado mientras no hay conexión a un servidor de control de estado. Por otra parte, también se propone una metodología sistemática para construir un sistema difuso que ayuda a los usuarios en el proceso de toma de decisiones relacionado con la comprobación de estado de certificados.En tercer lugar, se proponen dos nuevos mecanismos para la distribución y validación de datos de estado de certificados en VANETs. El primer mecanismo está basado en el uso en una extensión de las listas estandares de revocación. La principal ventaja de esta extensión es que las unidades al borde de la carretera y los vehículos repositorio pueden construir una estructura eficiente sobre la base de un árbol de hash autenticado para responder a las peticiones de estado de certificados. El segundo mecanismo tiene como objetivo optimizar el equilibrio entre el ancho de banda necesario para descargar los datos de revocación y la frescura de los mismos. Este mecanismo se basa en el uso de un esquema híbrido de árboles de Merkle y delta-CRLs, de modo que el riesgo de operar con certificados revocados desconocidos permanece por debajo de un umbral durante el intervalo de validez de la CRL base, y la CA tiene la capacidad de gestionar este riesgo mediante el ajuste del tamaño de las delta-CRL. Para cada uno de estos mecanismos, llevamos a cabo el análisis de la seguridad y la evaluación del desempeño para demostrar la seguridad y eficiencia de las acciones que se emprenden.
194

Assessment of color quality and energy effciency : new insights for modern lighting. Part I : color quality in general lighting applications. Part II : mesopic photometry and street lighting

Quintero, Jesús M. 19 February 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Institut de Recerca en Energia de Catalunya. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar, prèvia petició, a l'Arxiu de la UPC / This dissertation is divided in two parts: The first one deal with two main characteristics of the light sources for general lighting: Color quality and luminous efficacy. The second one deals with technical aspects of the mesopic photometry applied in street lighting. The first part begins by proposing a method to generate a new color rendering index, consisting of a three-dimensional visual index, which was named 3D-CRM. In order to illustrate the use of this method and index, three examples of lighting application were performed: Artwork, meat and fruit. The results show the goodness of the visual index 3D-CRM, that is also accompanied by a numeric index that indicates how the light source tested fits with the gamut of colors required by the specific lighting application. Complementing the preceding proposal, a statistical analysis was performed in order to define the parameters that make up the color quality of light sources. This statistical study was based on a collection of more than 100 real and ideal spectra of light sources. As a result, it was found that there is another variable that can complement the CRI index to indicate the color quality. This is the proposed index Oc (Optimal Color), which is based on the calculation of volumes generated with the spectrum of test source and several ideal spectra of reflectance to get optimal colors (high saturated colors) at different luminance levels. This fisrt part of the dissertation ends by proposing an index to generate a classification of light sources according to the requirements of the lighting application and the parameters such as correlated color temperature (CCT), luminous efficacy of radiation (LER) and color quality (CQ). It was demonstrated that the new proposed index called ECQ (Efficacy and Color Quality), is able to generate a useful ranking when assessing a collection of spectra, by giving a desired CCT and the weight that efficacy and color quality have in the lighting application studied. By using some examples of different lighting applications (i.e. different weights for color quality and efficacy) it was demonstrated how versatile and useful the ECQ index is. In the second part of this dissertation, a comparison of laboratory measurements between two different types of goniophotometers is made. The first one is a standard and photometer-based one, which uses the far-field for measurement. The second one has a more recent technology, uses a CCD camera and photometer as sensors, as well as the near field for measurement. This comparison exercise validates the measurements from the near-field goniophotometer, since up to moment, for this type of measurement and type of sensor (CCD camera), there are no laboratories with international traceability that can verify or calibrate this measurement system. The comparison exercise shows that there is a very good fit between both measures performed to standard light bulbs; therefore results of the near-field goniophotometer are validated. In recent measures performed at the Light and lighting laboratory of K.U. Leuven in Ghent, it was found that near field goniophotometer has a reduced luminous intensity dynamic range, for this reason exists an error measuring low luminous intensities in a luminarie with a sharp LID such as PAR30 Spot light bulb. After that, some aspects of the Recommended System for Mesopic Photometry Based on Visual Performance, CIE191:2010 are analysed. Finally it is presented a proposal of a new metrics called Energy Consumption Index (Qsa) intended to assessing possible energy savings on street lighting systems. In this chapter, by using the Energy Consumption Index an evaluation of three different hypothetical scenarios for a typical city is performed to demonstrate how flexible and intuitive this index is. These scenarios assess different characteristics of the light system such as light sources types, dimming systems and also the use of photopic and mesopic photometry. / Esta tesis se divide en dos partes: La primera trata con dos características principales de las fuentes de luz para la iluminación general: la calidad del color y de eficacia luminosa. El segundo se ocupa de los aspectos técnicos de la fotometría mesópica aplicada en el alumbrado público. La primera parte comienza proponiendo un procedimiento para generar un nuevo índice de rendimiento de color, que consiste en un índice visual tridimensional, llamado 3D-CRM. Con el fin de ilustrar el uso de este índice, se realizaron tres ejemplos de aplicación de iluminación: Arte, carnes y frutas. Los resultados muestran la bondad del índice visual 3D-CRM, que también se acompaña de un índice numérico que indica que tan bien una fuente de luz bajo prueba repolores la gama de colores para una aplicación de iluminación específica. Como complemento de la propuesta anterior, se realizó un análisis estadístico con el fin de definir los parámetros que componen la calidad de color de fuentes de luz. Este estudio estadístico se basa en una colección de más de 100 espectros reales e ideales de fuentes de luz. Como resultado, se encontró que hay otra variable que puede complementar el índice CRI para indicar la calidad del color. Este es el índice propuesto Oc (óptima del color), que se basa en el cálculo de los volúmenes generados con el espectro de la fuente de prueba y varios espectros ideal de reflectancia para obtener colores óptimos (colores de alta saturación) a diferentes niveles de luminancia. Esta primera parte termina proponiendo un índice para generar una clasificación de las fuentes de luz de acuerdo con los requisitos de la aplicación de iluminación y los parámetros tales como la temperatura de color correlacionada (CCT), la eficacia lumínica de radiación (LER) y la calidad de color (CQ ). Se demostró que el nuevo índice propuesto llamada ECQ (eficacia y calidad del color), es capaz de generar una clasificación útil en la evaluación de una colección de espectros, dando un CCT deseado y el peso que la eficacia y la calidad del color tienen en la aplicación de iluminación estudiado . Mediante el uso de algunos ejemplos de diferentes aplicaciones de iluminación (es decir, diferentes pesos para la calidad del color y la eficacia lumínica) se demostró la versatilidad y utilidad de este indicador. En la segunda parte de esta tesis, se hace una comparación de mediciones de laboratorio entre dos tipos diferentes de Goniofotómetros. El primero es uno estándar basada en el fotómetro, que utiliza el campo lejano para la medición. El segundo tiene una tecnología más reciente, utiliza una cámara CCD y fotómetro como sensores, así como el campo cercano para la medición. Este ejercicio de comparación valida las mediciones de la goniofotómetro de campo cercano, ya que hasta el momento, para este tipo de medición y el tipo de sensor (cámara CCD), no hay laboratorios con trazabilidad internacional que puede verificar o calibrar este sistema de medición. El ejercicio de comparación muestra que hay un muy buen ajuste entre las dos medidas realizadas a las bombillas estándar; Por lo tanto, los resultados del Goniofotómetro de campo cercano se validan. En recientes medidas realizadas en el laboratorio de luz e iluminación de K.U. Lovaina en Gante, se encontró que Goniofotómetro de campo cercano tiene un rango dinámico limitado para medición de intensidad luminosa, por esta razón existe un error de medición de bajas intensidades luminosas en una luminaria con una distribución aguda como por ejemplo un proyector de luz. Posteriormente se analizan, algunos aspectos del sistema recomendado para fotometría mesópica basado en el rendimiento visual, CIE191: 2010. Por último se presenta una propuesta de una nueva métrica llamada Índice de Consumo de Energía (Qsa) destinado a evaluar los posibles ahorros de energía en los sistemas de alumbrado público
195

Low-Power and Compact CMOS Circuit Design of Digital Pixel Sensors for X-Ray Imagers

Figueras i Bagué, Roger 10 April 2015 (has links)
La obtenció d’imatges utilitzant raigs-X ha esdevingut una tecnologia clau per a un ampli rang d’aplicacions tant industrials com mèdiques o científiques, doncs permet estudiar l’interior dels objectes sense necessitat de destruir-los o desmantellar-los. En aquest sentit, hi ha un creixent interès en la recerca en aquests camps, com demostra la literatura, per desenvolupar sistemes avançats de raig-X capaços d’obtenir imatges d’alta qualitat a la vegada que es redueix la dosi total de radiació. Actualment, els imagers de raig-X estan dominats per sistemes híbrids, basats en matrius de píxels en detectors de conversió directa de raig-X i els seus corresponents circuits integrats de lectura (ROICs). Tot i el seu elevat cost i les seves limitacions en àrea en comparació amb els clàssics sensors de conversió indirecta, els avantatges que ofereixen aquests sistemes són clars en quant a la reducció de la dosi de radiació necessària, la millora de la integritat del senyal i l’escalat en la resolució espacial. Pel que fa al mètode de lectura que empren els ROICs, l’estratègia més estesa es basa en el conteig de fotons, degut als avantatges en termes d’immunitat al soroll i de classificació dels fotons. No obstant, aquests sistemes d’imatge per raig-X pateixen de pèrdues d’informació degut a efectes com el charge-sharing i el pile-up. És en aquest context que l’objectiu d’aquest treball de tesi és proposar tècniques específiques de disseny analògic i mixte de circuits per al desenvolupament de píxels digitals sensors (DPS) compactes i de baix consum per a ROICs focalitzats a imagers de raig-X híbrids de conversió directa. L’arquitectura del píxel proposat, basada en el mètode de lectura per integració de càrrega, evita la pèrdua d’informació que pateixen els sistemes basats en el conteig de fotons i contribueix a la qualitat de les imatges per raig-X amb una àrea de píxel compacta i un baix consum per millorar la resolució de la imatge i reduir l’escalfament del detector, respectivament. En aquest sentit, el circuits CMOS del DPS proposat inclouen una conversió de la càrrega sense pèrdues a nivell de píxel per extendre el rang dinàmic, ajust individual del guany per compensar el FPN de la matriu de píxels, capacitat d’autopolarització i comunicacions exclusivament digitals per reduir el crosstalk entre píxels, capacitat d’auto-test per reducció de costos, selecció de la càrrega col·lectable per ampliar el rang d’aplicacions i cancel·lació del corrent d’obscuritat a nivell de píxel. A més, les tècniques de disseny proposades s’orienten al desenvolupament futur de sistemes d’imatge de raig-X modulars 2D amb grans àrees escalables i contínues de sensat. Aquesta recerca en disseny de circuits s’ha materialitzat en diverses generacions de demostradors DPS, amb valors de pitch des de 100μm baixant fins a 52μm, integrades utilitzant una tecnologia CMOS estàndard de 0.18μm i 1P6M. S’ha fet una anàlisi exhaustiva de les mesures tant elèctriques com amb raigs-X dels prototips de circuits proposats per a la seva validació. Els resultats experimentals, alineen aquest treball inclús més enllà de l’estat de l’art en píxels actius en termes de resolució espacial, consum, linealitat, SNR i flexibilitat del píxel. Aquest últim punt adequa les tècniques de disseny de circuits proposades a una àmplia gamma d’aplicacions d’imatges de raigs-X. / X-ray imaging has become a key enabling technology for a wide range of industrial, medical and scientific applications since it allows studying the inside of objects without the need to destroy or dismantle them. In this sense there is a growing research interest in literature to develop advanced X-ray systems capable of obtaining high quality images while reducing the total radiation dose. Currently, X-ray imagers are dominated by hybrid systems, built from a pixel array of direct conversion X-ray detectors and its corresponding readout integrated circuit (ROIC). Despite their higher cost and limited area compared to classical indirect counterparts, the advantages of these systems are clear in terms of radiation dose reduction, signal integrity improvement and spatial resolution scaling. Concerning the readout method used by the ROICs, the most common design strategy is based on photon-counting, due to its advantages regarding circuit noise immunity and photon classification. However, these X-ray imaging systems tend to experience from information losses caused by charge-sharing and pile-up effects. In this context, the goal of the presented thesis work is to propose specific analog and mixed circuit techniques for the full-custom CMOS design of low-power and compact pitch digital pixel sensors (DPS) for ROICs targeting hybrid and direct conversion X-ray imagers. The proposed pixel architecture, based on the charge-integration readout method, avoids information losses experienced by photon-counting and contributes to X-ray image quality by a compact pixel area and low-power consumption to improve image resolution and reduce heating of X-ray detectors, respectively. In this sense, the proposed CMOS DPS circuits feature in-pixel A/D lossless charge conversion for extended dynamic range, individual gain tuning for pixel array FPN compensation, self-biasing capability and digital-only interface for inter-pixel crosstalk reduction, built-in test capability for costs reduction, selectable electron/hole collection to wide the applications range and in-pixel dark current cancellation. Furthermore, the proposed design techniques are oriented to the future development of truly 2D modular X-ray imager systems with large scale and seamless sensing areas. All the above circuit design research has been materialized in several generations of DPS demonstrators, with pitch values ranging from 100μm down to 52μm, all of them integrated using standard 0.18μm 1P6M CMOS technology. Extensive analysis of both electrical and X-ray measurements on the pixel circuit prototypes have been done to proof their validity. Experimental results align this work not only within but also beyond the state-of-the-art active pixels in terms of spatial resolution, power consumption, linearity, SNR and pixel flexibility. This last point makes the proposed pixel design techniques specially suitable for a wide range of X-ray image applications.
196

Lleis d'escala i complexitat estructural de les infraestructures tecnològiques. Els sistemes biològics com a analogia pel disseny i optimització del transport i distribució de l'energia elèctrica

Horta Bernús, Ricard 25 April 2014 (has links)
Within the paradigm of sustainability, this thesis aims to provide complementary views to the conventional engineering in order to put forward tools that facilitate, on the one hand the search of solutions to improve the design of high-voltage power lines , and on the other hand to optimize their networks. As per the improving of a high-voltage line design, Scaling Laws and Gravity Models are used to provide new variables to estimate calculation of the electricity demand of a certain area. This article proposes modifications to the vector diagram of a transmission line operation, known as a Perrine-Baum Diagram to incorporate the new variables proposed with the objective to use this diagram as an application tool in real projects. Regarding the electric power networks, this work applies the analysis tools provided by the theories of Complex Networks to study its topology and spatial features in order to suggest more optimal designs. / Dins del paradigma de la sostenibilitat, aquesta tesi pretén aportar punts de vista complementaris als de l’enginyeria convencional amb l’objectiu de proposar eines que facilitin per una banda, trobar solucions per millorar el disseny de les línies elèctriques d’alta tensió, i per una altra optimitzar les xarxes constituïdes per aquestes. Pel que fa a la millora del disseny d’una línia d’alta tensió, s’han utilitzat les teories de les Lleis d’Escala i els Models Gravitacionals per aportar noves variables als càlculs de previsió de demanda elèctrica d’una regió. S’han proposat modificacions al diagrama vectorial de funcionament d’una línia elèctrica, conegut com a Diagrama Perrine-Baum, per incorporar les noves variables proposades amb l’objectiu que aquest diagrama pugui ser una eina d’aplicació en projectes reals. Pel que fa a les xarxes elèctriques s’han aplicat les eines d’anàlisi aportades per les teories de Xarxes Complexes per estudiar la seva topologia i les característiques espacials, amb l’objectiu de proposar dissenys més òptims.
197

New Architectures for ubiquitous networks : use and adaptation of internet protocols over wireless sensor networks

Ludovici, Alessandro 07 July 2014 (has links)
This thesis focuses on the study of low-resource demanding protocols, communication techniques and software solutions to evaluate, optimise and implement Web service in WSNs. We start analysing the Web service architectures in order to choose the most appropriate for the constraints of WSNs, which is REST. Based on this analysis, we review the state-of-the-art of protocols that allows implementing REST Web services. To this end, we adopt the IEEE 802.15.4 standard for the physical and data-link layers, 6LoWPAN for the network layer and CoAP for the application layer. 6LoWPAN defines two forwarding techniques, which are called mesh under (MU) and route over (RO). It also provides a mechanism to fragment packets, which is called 6LoWPAN fragmentation. In part of the thesis, we study the effects that MU and RO have on communications using 6LoWPAN fragmentation. In particular, MU does not prevent forwarding unnecessary fragments and out-of-order delivery, which could lead to an inefficient use of bandwidth and a growth of energy consumption. We propose, then, a novel technique able to improve the performance of MU with fragmented packets, which we refer to as controlled mesh under (CMU). The results of a performance evaluation in a real WSN show that CMU is able to enhance the performance of MU by reducing its packet loss and end-to-end delay. In 6LoWPAN fragmentation, the loss of a fragment forces the retransmission of the entire packet. To overcome this limitation, CoAP defines blockwise transfer. It splits the packet into blocks and sends each one in reliable transactions, which introduces a significant communication overhead. We propose a novel analytical model to study blockwise and 6LoWPAN fragmentation, which is validated trough Monte Carlo simulations. Both techniques are compared in terms of reliability and delay. The results show that 6LoWPAN fragmentation is preferable for delay-constrained applications. For highly congested networks, blockwise slightly outperforms 6LoWPAN fragmentation in terms of reliability. CoAP defines the observe option to allow a client to register to a resource exposed by a server and to receive updates of its state. Existing QoS in the observe option supports partially timeliness. It allows specifying the validity of an update but it does not guarantee its on-time delivery. This approach is inefficient and does not consider applications, i.e. e-health, that requires the delivery of an update within a deadline. With this limitation in mind, we design and evaluate a novel mechanism for update delivery based on priority. The evaluation proves that implementing a delivery order improves the delay and delivery ratio of updates. Our proposal is also able to reduce the energy consumption allowing clients to express the class of updates that they wish to receive. In part of this thesis, we present our original library for TinyOS, which we referred to as TinyCoAP, and the design and implementation of a CoAP proxy. We compare TinyCoAP to CoapBlip, which is the CoAP implementation distributed with TinyOS. TinyCoAP proves to be able to reach a high code optimization and to reduce the impact over the memory of WSN nodes. The evaluation includes also the analysis of the CoAP reliability mechanism, which was still uncovered in the literature. As a novelty, we also compare CoAP with HTTP considering different solutions for the transport layer protocol such as UDP and persistent TCP connections. The CoAP proxy enables Web applications to transparently access the resources hosted in CoAP devices. It supports long-lived communications by including the WebSocket protocol. It also supports Web applications that use the traditional HTTP long-polling technique. Finally, one of the main contributions of the proxy design is the proposal of a standard URI path format to be used by Web applications to access to a CoAP resource. / Esta tesis se enfoca en el estudio de protocolos de bajo consumo, técnicas de comunicación y software con el fin de evaluar, optimizar y desarrollar servicios Web en WSNs. Empezamos analizando la arquitectura de servicios Web con el objetivo de elegir la arquitectura más apropiada debido a las limitaciones de WSNs. Ésta se denomina REST. En base a este análisis, revisamos el estado del arte de los protocolos que permiten desarrollar servicios Web. Con este objetivo adoptamos el estándar IEEE 802.15.4 por la capa física y de enlace, 6LoWPAN por la de red y CoAP por la capa de aplicación. 6LoWPAN define dos técnicas de enrutamiento, denominadas 'Mesh Under' (MU) y 'Route Over' (RO). Asimismo ofrece un mecanismo para fragmentar paquetes, llamado 6LoWPAN fragmentation. En parte de la tesis estudiamos los efectos que MU y RO tienen sobre la comunicación que utiliza 6LoWPAN fragmentation. En particular, MU no previene enrutar fragmentos innecesarios y la entrega fuera de orden, lo cual podría provocar un uso ineficiente de ancho de banda y un crecimiento del consumo energía. Proponemos entonces nueva técnica capaz de mejorar las prestaciones de MU con paquetes fragmentados que denominamos 'Controlled Mesh Under' (CMU). Los resultados de una evaluación en una WSN real demuestran que CMU es capaz de mejorar las prestaciones de MU reduciendo la pérdida de paquetes y el retraso end-to-end. En 6LoWPAN fragmentation, la pérdida de un fragmento causa la retransmisión del paquete entero. Para evitar esta limitación CoAP define blockwise transfer. Esto divide el paquete en bloques y los envía en comunicaciones fiables provocando overhead. Proponemos un nuevo modelo analítico para estudiar blockwise y 6LoWPAN fragmentation cuya validación se realiza mediante simulaciones de Monte Carlo. Ambas técnicas se comparan en términos de fiabilidad y retraso. Los resultados muestran que es preferible usar 6LoWPAN fragmentation para las aplicaciones con restricciones en retraso. Para las redes mas congestionadas, blockwise mejora ligeramente 6LoWPAN fragmentation en términos de fiabilidad. CoAP define la opción observe para permitir a un cliente registrarse a un recurso proporcionado por un servidor y recibir actualizaciones de su estado. La QoS ofrecida por la opción observe proporciona soporte parcial por el timeliness. Esta permite especificar la validez de una actualización pero no garantiza su entrega a tiempo. Este enfoque es ineficiente y no incluye aplicaciones, como por ejemplo e-health que requieren la entrega de las actualizaciones en un plazo determinado. Teniendo en cuenta esta limitación, diseñamos y evaluamos un mecanismo novedoso para la entrega de actualizaciones basada en la prioridad. La evaluación demuestra que la implementación de una orden de entrega mejora la tasa de llegada y el retraso de las actualizaciones. Nuestra propuesta es capaz de reducir el consumo de energía permitiendo a los clientes expresar el tipo de actualización que desean recibir. En parte de esta tesis presentamos nuestra librería original pro TinyOS a la que nos referimos como TinyCoAP, así como el diseño y desarrollo de un Proxy CoAP. Comparamos TinyCoAP a CoapBlip, que es la aplicación distribuida con TinyOS. TinyCoAP demuestra ser capaz de alcanzar una alta optimización de código y reducir el impacto sobre la memoria de nodos de WSNs. La evaluación también incluye el análisis de la fiabilidad de CoAP que no había sido estudiada en la literatura. Como novedad también comparamos CoAP con HTTP, considerando diferentes soluciones para el protocolo de transporte como UDP y conexiones TCP persistentes. El Proxy CoAP permite a las aplicaciones Web acceder de manera transparente a los recursos almacenados en dispositivos CoAP. Éste incluye el protocolo WebSocket, que permite el establecimiento de conexiones long-lived. También permite el uso de aplicaciones Web con la tradicional técnica HTTP long-polling
198

De la oscuridad a la oscuridad : estudio sobre el crecimiento exponencial de la tecnología y su influencia en la concepción del hogar

Rico Panceiras, Ángel 27 June 2014 (has links)
Our approach in this thesis has considered that, in the contemporary society, there are several ongoing technology related phenomena which are transforming their relation with architecture and, consequently, the modes of use, occupancy and projection of the built environment. Starting from the personal concept of home, the introduction and influence of high technology (with a special reference to the ICT) in the space of the hose is investigated from several points of views. The goal of this analysis to delineate a model for the introduction of technology that allow us to predict future trends. After delimiting the realm of study geographically, socially and temporarily and establishing the point of origin of the phenomenon studied, the main vectors for the research - time, technology, speed and adaptation- are defined conceptually. After the definition of these vectors we consider the system of access of technology to the dwelling through the individual analysis of several technologies that have already modified our contemporary homes. For that, an analytical method is developed and applied to the following technologies: lighting, elevators, telephone, radio, refrigeration, mobile telephones, computers and the Net. This analysis is followed by a consideration of the influence of these technologies in the dwelling based on the temporal subdivision of their influence -that goes through the phases of emergence, adaptation and acceptance-with the aim of delineating the patterns of the proposed model. As it is shown in the research this model is changing but it still has some constants that allow us to predict possible trends- in as much as they are considered in relation to the corresponding temporal phase. A study of the evolution of the distribution and the users of these programs has been conducted, considering specially the tendencies of the natives of the Net who will be, in the close future, the users and inhabitants of the new dwellings. After the analysis we consider, in the chapter of conclusions, the disruptive variables that have a greater potential of consolidation in the moment of writing this thesis; namely, the augmented reality, nanotechnology and the cloud. Consequently, these are the variables that we should follow more carefully; being attentive, yet, to the possible emergence of new disruptive technologies. This consideration aims to keep us as professionals in a position of knowledge of the future trends that will permit to maintain our role in the definition of the architectural processes of the future. Finally this study formulates some trends for the future based on the main contemporary variables; trends as dematerialization, technological convergence, the dissolution and the concept of the architect. These considerations do not have any predictive pretension. They do only attempt to show possible trends based on contemporary evidence. / Se ha abordado esta tesis entendiendo que en la sociedad actual hay fenómenos en curso, relacionados con la tecnología, que están transformando su relación con la arquitectura y, en consecuencia, los modos de uso, ocupación y proyecto del espacio construido. Partiendo del concepto personal de hogar, se investiga desde diferentes puntos de vista, la penetración e influencia de la alta tecnología (con especial referencia a las T.I.C.) en el espacio de la vivienda. La finalidad es aportar un modelo de penetración que permita determinar tendencias futuras. Tras acotar el ámbito de estudio a nivel geográfico, social y temporal, además de establecer el punto de partida del fenómeno a estudiar, se definen conceptualmente los vectores imprescindibles para el desarrollo del trabajo; como son el tiempo, la tecnología, la velocidad y la adaptación. Con la definición de dichos vectores se pasa a establecer el sistema de acceso de las tecnologías al espacio de la vivienda, mediante el análisis individual de una serie de ellas que ya han modificado el hogar actual. Para ello, se desarrolla un método analítico que se aplicará a las siguientes tecnologías: la iluminación, el ascensor, el teléfono, la radio, la nevera. la televisión, la telefonía móvil, el computador y la Red. Basándose en una subdivisión temporal de la incidencia de estas tecnologías, pasando por las fases de: Irrupción, adaptación y aceptación; se reflexiona en cada una de ellas su incidencia en la arquitectura de la vivienda, con la intención de que sumando los análisis individuales, den pautas para el modelo. Como se demuestra, es cambiante pero mantiene constantes que permiten. si son entendidas en la fase temporal correcta, predecir las tendencias. Se realiza un estudio sobre la evolución de las distribuciones y los usuarios de dichos programas; analizando especialmente las tendencias de los nativos de la Red que serán los usuarios, en un futuro inmediato de las nuevas viviendas. Tras el análisis y en el capítulo de conclusiones, se desarrollan las variables disruptivas que en el momento de escribir la tesis, plantean más potencial de consolidación. Estas son: La realidad aumentada, la nanotecnología y la nube. Por tanto, son estas variables a las que debemos hacer un especial seguimiento, atendiendo en todo momento al surgimiento de otras nuevas. Siempre, con la intención de mantenernos como profesionales, en una posición de conocimiento de las tendencias que nos permita tener una presencia de peso en el proceso arquitectónico futuro. Para finalizar, en el estudio se plantean las tendencias de futuro basadas en las variables actuales, como son la desmaterialización, la convergencia tecnológica, la disolución y el concepto de arquitecto, como se deja claro en la tesis sin ninguna pretensión predictiva sino de tendencia
199

Contributions to the performance evaluation and improvement of the IPv6 routing protocol for low-power and lossy networks

Kermajani, Hamidreza 03 September 2014 (has links)
Wireless Sensor Networks (WSNs) have become increasingly important. These networks comprise sensor and actuator nodes that enable intelligent monitoring and control applications in a wide spectrum of environments including smart cities, home automation, remote health and precision agriculture to mention a few. In certain IETF circles, networks of these characteristics are called Low Power and Lossy Networks (LLNs). Whereas most LLN protocol architectures were born without native IP support, there exists a tendency in the market towards IP convergence, since IP-based LLNs offer an open and tandardized way of connecting LLNs to the Internet, thus nabling the Internet of Things (IoT). Since most LLN configurations are multihop, and thus a routing protocol is required, the IETF created the Routing Over Low power and Lossy networks (ROLL) working group, which decided to develop a new routing protocol called IPv6 Routing Protocol for LLNs (RPL). RPL was specifically designed to meet the requirements of LLNs and is a central component of the IETF protocol suite for the IoT. Since RPL has already been deployed in millions of nodes, it is fundamental to characterize its properties, evaluate the influence of its main parameters and options on network performance, and analyze performance improvement possibilities. This PhD thesis presents the following original contributions in this field: 1. Evaluation of the influence of the main RPL parameters on the network convergence process over IEEE 802.15.4 multihop networks, in terms of network characteristics such as size and density. In addition, a mechanism that leverages an option available in RPL for accelerating network convergence has been proposed and evaluated. This study provides a guideline for configuring and selecting adequately crucial RPL parameters and mechanisms for achieving high network convergence performance, as well as a characterization of the related performance trade-offs. 2. Development of an analytical model for estimating the network convergence time of RPL in a static chain topology network of IEEE 802.15.4 nodes, in the presence of bit errors. Results show the scenarii in terms of BER and chain topology length that may dramatically degrade performance experienced by a user. The model provides a lower bound on the network convergence time for a random topology network. 3. Development of an analytical tool to estimate the number of control messages transmitted in a random topology static network which uses the Trickle algorithm (a transmission scheduling algorithm used in RPL) under steady state conditions. Results show the accuracy of the model, which can be used for both synchronous and asynchronous networks. The slight difference in performance between these two network configurations is discussed and illustrated. 4. Theoretical evaluation of the route change latency incurred by RPL when 6LoWPAN Neighbor Discovery (ND) is used. On this basis, a study on the impact of the relevant 6LoWPAN ND and RPL parameters on path availability and the trade-off between path availability and message overhead, has been carried out. 5. Development of a RPL simulator for OMNeT++ using the MiXiM framework. / La importància de les Wireless Sensor Networks (WSNs) ha estat creixent significativament en els darrers anys. Aquestes xarxes comprenen node sensors i actuadors que possibiliten aplicacions de control i monitorització en un ampli ventall d'entorns, incloent les ciutats intel·ligents, automatització residencial, etc. En alguns cercles de l'IETF, aquestes xarxes són anomenades Low Power and Lossy Networks (LLNs). La majoria d'arquitectures de protocols van néixer sense suport natiu per a IP, per ha existit recentment una tendència en el mercat envers la convergència IP, ja que les LLN basades en IP ofereixen una manera oberta i estandaritzada de connectar LLNs a Internet, tot creant la Internet de les Coses. Atès que moltes configuracions de LLNsn multisalt, i per tant es requereix un protocol d'encaminament, l'IETF va crear el Routing Over Low power and Lossy networks (ROLL) working group, que va decidir dissenyar un nou protocol anomenat IPv6 Routing Protocol for LLNs (RPL). RPL va ser específicament dissenyat per complir amb els requeriments de les LLNs i és un component central de la pila de protocols de l'IETF per a la Internet de les Coses. Atès que RPL ha estat desplegat en milions de nodes, és fonamental caracteritzar les seves propietats, avaluar la influència dels seus paràmetres principals i opcions en el rendiment, i analitzar les possibilitats de millora del protocol. Aquesta tesi presenta les següents contribucions originals en aquest camp: 1. Avaluació de la influència dels principals paràmetres de RPL en el procés de convergència de la xarxa en xarxes IEEE 802.15.4, en termes de característiques com la mida i la densitat de la xarxa. A més a més, s'ha proposat i avaluat un mecanisme que utilitza una opci disponible en el RPL per a accelerar la convergència de xarxa. Aquest estudi proporciona una guia per configurar i escollir adequadament paràmetres crucials del protocol RPL per tal d'assolir una ràpida convergència de xarxa, això com una caracteritzaci dels compromisos relacionats. 2. Desenvolupament d'un model analátic per estimar el temps de convergència de xarxa de RPL en una topologia de xarxaestàtica en cadena de nodes IEEE 802.15.4, en presència d'errors. Els resultats mostren els escenaris en termes de BER i mida de la cadena que poden degradar les prestacions percebudes per l'usuari. El model proporciona una fita inferior del temps de convergència de xarxa per a una topologia aleatòria. 3. Desenvolupament d'una eina analítica per estimar el nombre de missatges de control transmesos en una xarxa de topologia aleat ria i estàtica on s'usa l'algoritme Trickle (algoritme de planificació i control de les transmissions emprat en RPL), en condicions de règim permanent. Els resultats mostren la precisió del model, que pot ser emprat en xarxes síncrones i asíncrones. La lleugera diferència de prestacions entre un escenari i l'altre és discutida i il·lustrada. 4. Avaluació teòrica del temps de canvi de ruta de RPL quan s'usa 6LoWPAN Neighbor Discovery (ND). En base a aixó , es realitza un estudi de l'impacte dels paràmetres rellevants de RPL i 6LoWPAN ND en la disponibilitat de cambi el compromís amb l'overhead de missatges. 5. Desenvolupament d'un simulador de RPL per a OMNeT++ usant el MiXiM framework
200

Off-line and in-operation optical core networks planning

Castro, Alberto 10 October 2014 (has links)
The ever increasing IP traffic volume has finally brought to light the high inefficiency of current wavelength-routed over rigid-grid optical networks in matching the client layer requirements. Such an issue results in the deployment of large-size, expensive and power-consuming Multiprotocol Label Switching (MPLS) layers to perform the required grooming/aggregation functionality. To deal with this problem, the emerging flexgrid technology, allowing for reduced size frequency grids, is being standardized. Flexgrid optical networks divide the spectrum into frequency slots providing finer granularity than rigid networks based on Dense Wavelength Division Multiplexing (DWDM). To find a feasible allocation, new Routing and Spectrum Allocation (RSA) algorithms for flexgrid optical networks need to be designed and evaluated. Furthermore, due to the flexibility of flexible optical networks, the aggregation functions and statistical multiplexing can be partially located in the optical layer. In addition, given the special characteristics of flexible optical networks, the traditional mechanisms for protection and recovery must be reformulated. Optical transport platforms are designed to facilitate the setting up and tearing down of optical connections (lightpaths). Combining remotely configurable optical cross-connects (OXCs) with a control plane provides the capability of automated lightpath set-up for regular provisioning, and real-time reaction to the failures, being thus able to reduce Operational Expenditures (OPEX). However, to exploit existing capacity, increase dynamicity, and provide automation in future networks, current management architectures, utilizing legacy Network Management Systems (NMS) need to be radically transformed. This thesis is devoted to design optical networks and to devise algorithms to operate them. Network design objective consists of: i. Analyzing the cost implications that a set of frequency slot widths have on the Capital Expenditures (CAPEX) investments required to deploy MPLS-over-flexgrid networks; ii. Studying recovery schemes, where a new recovery scheme specifically designed for flexgrid-based optical networks is proposed. As for network operation, we focus on: i. Studying provisioning, where two provisioning algorithms are proposed: the first one targets at solving the RSA problem in flexgrid networks, whereas the second one studies provisioning considering optical impairments in translucent DWDM networks; ii. Getting back to the recovery problem, we focus on algorithms to cope with restoration in dynamic scenarios. Several algorithms are proposed for both single layer and multilayer networks to be deployed in the centralized Path Computation Element (PCE); iii. One of the main problems in flexgrid networks is spectrum defragmentation. In view of that, we propose an algorithm to reallocate already established optical connections so as to make room for incoming requests. This algorithm is extended with elasticity to deal with time-varying traffic. The above algorithms are firstly implemented and validated by using simulation, and finally experimentally assessed in real test-beds. In view of PCE architectures do not facilitate network reconfiguration, we propose a control and management architecture to allow the network to be dynamically operated; network resources can be made available by reconfiguring and/or re-optimizing the network on demand and in real-time. We call that as in-operation network planning. It shall be mentioned that part of the work reported in this thesis has been done within the framework of several European and National projects, namely STRONGEST (FP7-247674), IDEALIST (FP7-ICT-2011-8), and GEANT (FP7-238875) funded by the European Commission, and ENGINE (TEC2008-02634) and ELASTIC (TEC2011-27310) funded by the Spanish Science Ministry. / El volumen creciente del tráfico IP, finalmente, ha puesto de manifiesto la alta ineficiencia de las redes ópticas actuales de grid rígido basadas en WDM en la adecuación a los requisitos de capa de cliente. Dicho problema genera que se deba desplegar una red con capas MPLS de gran tamaño, costosa y de alto consumo energético para poder realizar la funcionalidad de agregación requerida. Para hacer frente a este problema, la tecnología flexgrid emergente, que permite grids con frecuencias de menor tamaño, está siendo estandarizada. Las redes ópticas flexgrid dividen el espectro en slots de frecuencia, lo que proporciona una granularidad más fina en comparación a las redes rígidas basadas en WDM. Para encontrar una asignación factible, nuevos algoritmos de enrutamiento y asignación de espectro (RSA) para redes ópticas flexgrid deben ser diseñados y evaluados. Además, debido a la flexibilidad de las redes ópticas flexibles, las funciones de agregación y de multiplexación estadística pueden ser parcialmente situadas en la capa óptica. Asimismo, dadas las características especiales de las redes ópticas flexibles, los mecanismos tradicionales de protección y recuperación deben reformularse. Las plataformas de transporte ópticas están diseñadas para facilitar la creación y destrucción de conexiones ópticas. La combinación de OXCs configurables remotamente con un plano de control, proporciona la capacidad de crear conexiones automáticamente para el aprovisionamiento habitual, y la reacción en tiempo real a los fallos, para así poder reducir el OPEX. Sin embargo, para aprovechar la capacidad existente, aumentar la dinamicidad y proporcionar automatización a las redes del futuro, las arquitecturas actuales de gestión, que utilizan sistemas legados de NMS, necesitan ser transformadas de manera radical. Esta tesis está dedicada al diseño de redes ópticas y a la creación de algoritmos para operarlas. El objetivo de diseño de red se compone de: 1. El análisis de las implicancias en el costo que tiene un conjunto de slots de frecuencia en el CAPEX necesario para implementar redes MPLS-over-flexgrid; 2. El estudio de esquemas de recuperación, donde se propone un nuevo esquema de recuperación diseñado específicamente para las redes ópticas basadas en flexgrid. En cuanto a la operación de la red: 1. El estudio de aprovisionamiento, donde se proponen dos algoritmos de aprovisionamiento: el primero de ellos tiene como objetivo solucionar el problema de RSA en redes flexgrid, mientras que el segundo estudia aprovisionamiento considerando la degradación óptica en redes WDM translúcidas; 2. Volviendo al problema de la recuperación, nos centramos en algoritmos de restauración para escenarios dinámicos. Se proponen varios algoritmos, tanto para redes mono-capa como multi-capa, que serán desplegados en un PCE centralizado; 3. Uno de los principales problemas en las redes flexgrid es la desfragmentación del espectro. Para ello, se propone un algoritmo para reasignar las conexiones ópticas ya establecidas con el fin de hacer espacio a las entrantes. Este algoritmo se extiende con elasticidad para ser utilizado en escenarios con tráfico variable en el tiempo. Los algoritmos anteriores son primero implementados y validados utilizando simulación, y finalmente son evaluados experimentalmente en testbeds reales. En vista de que las arquitecturas de PCE no facilitan la reconfiguración de la red, proponemos una arquitectura de control y gestión para permitir que la red pueda ser operada de forma dinámica; hacer que los recursos de la red estén disponibles mediante reconfiguración y/o re-optimización de la red bajo demanda y en tiempo real. A eso lo llamamos planificación en operación de la red. El trabajo presentado en esta tesis se ha realizado en el marco de proyectos europeos y nacionales: STRONGEST (FP7-247674), IDEALIST (FP7-2011-8), y GEANT (FP7-238875) financiados por la CE, y ENGINE (TEC2008-02634) y ELASTIC (TEC2011-27310) financiados por el MINECO

Page generated in 0.116 seconds