• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 319
  • 94
  • 40
  • 1
  • Tagged with
  • 454
  • 454
  • 364
  • 364
  • 364
  • 153
  • 100
  • 99
  • 94
  • 94
  • 94
  • 81
  • 47
  • 44
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Certificate status information distribution and validation in vehicular networks

Hernández Gañán, Carlos 04 September 2013 (has links)
Tesi per compendi de publicacions. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar prèvia petició a l'Arxiu de la UPC / Vehicular ad hoc networks (VANETs) are emerging as an functional technology for providing a wide range of applications to vehicles and passengers. Ensuring secure functioning is one of the prerequisites for deploying reliable VANETs. The basic solution envisioned to achieve these requirements is to use digital certificates linked to a user by a trusted third party. These certificates can then be used to sign information. Most of the existing solutions manage these certificates by means of a central Certification Authority (CA). According to IEEE 1609.2 standard, vehicular networks will rely on the public key infrastructure (PKI). In PKI, a CA issues an authentic digital certificate for each node in the network. Therefore, an efficient certificate management is crucial for the robust and reliable operation of any PKI. A critical part of any certificate-management scheme is the revocation of certificates. The distribution of certificate status information process, as well as the revocation process itself, is an open research problem for VANETs.In this thesis, firstly we analyze the revocation process itself and develop an accurate and rigorous model for certificate revocation. One of the key findings of our analysis is that the certificate revocation process is statistically self-similar. As none of the currently common formal models for revocation is able to capture the self-similar nature of real revocation data, we develop an ARFIMA model that recreates this pattern. We show that traditional mechanisms that aim to scale could benefit from this model to improve their updating strategies.Secondly, we analyze how to deploy a certificate status checking service for mobile networks and we propose a new criterion based on a risk metric to evaluate cached status data. With this metric, the PKI is able to code information about the revocation process in the standard certificate revocation lists. Thus, users can evaluate a risk function in order to estimate whether a certificate has been revoked while there is no connection to a status checking server. Moreover, we also propose a systematic methodology to build a fuzzy system that assists users in the decision making process related to certificate status checking.Thirdly, we propose two novel mechanisms for distributing and validating certificate status information (CSI) in VANET. This first mechanism is a collaborative certificate status checking mechanism based on the use based on an extended-CRL. The main advantage of this extended-CRL is that the road-side units and repository vehicles can build an efficient structure based on an authenticated hash tree to respond to status checking requests inside the VANET, saving time and bandwidth. The second mechanism aims to optimize the trade- off between the bandwidth necessary to download the CSI and the freshness of the CSI. This mechanism is based on the use of a hybrid delta-CRL scheme and Merkle hash trees, so that the risk of operating with unknown revoked certificates remains below a threshold during the validity interval of the base-CRL, and CAs have the ability to manage this risk by setting the size of the delta-CRLs. Finally, we also analyze the impact of the revocation service in the certificate prices. We model the behavior of the oligopoly of risk-averse certificate providers that issue digital certificates to clients facing iden- tical independent risks. We found the equilibrium in the Bertrand game. In this equilibrium, we proof that certificate providers that offer better revocation information are able to impose higher prices to their certificates without sacrificing market share in favor of the other oligarchs. / Las redes vehiculares ad hoc (VANETs) se están convirtiendo en una tecnología funcional para proporcionar una amplia gama de aplicaciones para vehículos y pasajeros. Garantizar un funcionamiento seguro es uno de los requisitos para el despliegue de las VANETs. Sin seguridad, los usuarios podrían ser potencialmente vulnerables a la mala conducta de los servicios prestados por la VANET. La solución básica prevista para lograr estos requisitos es el uso de certificados digitales gestionados a través de una autoridad de certificación (CA). De acuerdo con la norma IEEE 1609.2, las redes vehiculares dependerán de la infraestructura de clave pública (PKI). Sin embargo, el proceso de distribución del estado de los certificados, así como el propio proceso de revocación, es un problema abierto para VANETs.En esta tesis, en primer lugar se analiza el proceso de revocación y se desarrolla un modelo preciso y riguroso que modela este proceso conluyendo que el proceso de revocación de certificados es estadísticamente auto-similar. Como ninguno de los modelos formales actuales para la revocación es capaz de capturar la naturaleza auto-similar de los datos de revocación, desarrollamos un modelo ARFIMA que recrea este patrón. Mostramos que ignorar la auto-similitud del proceso de revocación lleva a estrategias de emisión de datos de revocación ineficientes. El modelo propuesto permite generar trazas de revocación sintéticas con las cuales los esquemas de revocación actuales pueden ser mejorados mediante la definición de políticas de emisión de datos de revocación más precisas. En segundo lugar, se analiza la forma de implementar un mecanismo de emisión de datos de estado de los certificados para redes móviles y se propone un nuevo criterio basado en una medida del riesgo para evaluar los datos de revocación almacenados en la caché. Con esta medida, la PKI es capaz de codificar la información sobre el proceso de revocación en las listas de revocación. Así, los usuarios pueden estimar en función del riesgo si un certificado se ha revocado mientras no hay conexión a un servidor de control de estado. Por otra parte, también se propone una metodología sistemática para construir un sistema difuso que ayuda a los usuarios en el proceso de toma de decisiones relacionado con la comprobación de estado de certificados.En tercer lugar, se proponen dos nuevos mecanismos para la distribución y validación de datos de estado de certificados en VANETs. El primer mecanismo está basado en el uso en una extensión de las listas estandares de revocación. La principal ventaja de esta extensión es que las unidades al borde de la carretera y los vehículos repositorio pueden construir una estructura eficiente sobre la base de un árbol de hash autenticado para responder a las peticiones de estado de certificados. El segundo mecanismo tiene como objetivo optimizar el equilibrio entre el ancho de banda necesario para descargar los datos de revocación y la frescura de los mismos. Este mecanismo se basa en el uso de un esquema híbrido de árboles de Merkle y delta-CRLs, de modo que el riesgo de operar con certificados revocados desconocidos permanece por debajo de un umbral durante el intervalo de validez de la CRL base, y la CA tiene la capacidad de gestionar este riesgo mediante el ajuste del tamaño de las delta-CRL. Para cada uno de estos mecanismos, llevamos a cabo el análisis de la seguridad y la evaluación del desempeño para demostrar la seguridad y eficiencia de las acciones que se emprenden.
192

Assessment of color quality and energy effciency : new insights for modern lighting. Part I : color quality in general lighting applications. Part II : mesopic photometry and street lighting

Quintero, Jesús M. 19 February 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Institut de Recerca en Energia de Catalunya. La consulta íntegra de la tesi, inclosos els articles no comunicats públicament per drets d'autor, es pot realitzar, prèvia petició, a l'Arxiu de la UPC / This dissertation is divided in two parts: The first one deal with two main characteristics of the light sources for general lighting: Color quality and luminous efficacy. The second one deals with technical aspects of the mesopic photometry applied in street lighting. The first part begins by proposing a method to generate a new color rendering index, consisting of a three-dimensional visual index, which was named 3D-CRM. In order to illustrate the use of this method and index, three examples of lighting application were performed: Artwork, meat and fruit. The results show the goodness of the visual index 3D-CRM, that is also accompanied by a numeric index that indicates how the light source tested fits with the gamut of colors required by the specific lighting application. Complementing the preceding proposal, a statistical analysis was performed in order to define the parameters that make up the color quality of light sources. This statistical study was based on a collection of more than 100 real and ideal spectra of light sources. As a result, it was found that there is another variable that can complement the CRI index to indicate the color quality. This is the proposed index Oc (Optimal Color), which is based on the calculation of volumes generated with the spectrum of test source and several ideal spectra of reflectance to get optimal colors (high saturated colors) at different luminance levels. This fisrt part of the dissertation ends by proposing an index to generate a classification of light sources according to the requirements of the lighting application and the parameters such as correlated color temperature (CCT), luminous efficacy of radiation (LER) and color quality (CQ). It was demonstrated that the new proposed index called ECQ (Efficacy and Color Quality), is able to generate a useful ranking when assessing a collection of spectra, by giving a desired CCT and the weight that efficacy and color quality have in the lighting application studied. By using some examples of different lighting applications (i.e. different weights for color quality and efficacy) it was demonstrated how versatile and useful the ECQ index is. In the second part of this dissertation, a comparison of laboratory measurements between two different types of goniophotometers is made. The first one is a standard and photometer-based one, which uses the far-field for measurement. The second one has a more recent technology, uses a CCD camera and photometer as sensors, as well as the near field for measurement. This comparison exercise validates the measurements from the near-field goniophotometer, since up to moment, for this type of measurement and type of sensor (CCD camera), there are no laboratories with international traceability that can verify or calibrate this measurement system. The comparison exercise shows that there is a very good fit between both measures performed to standard light bulbs; therefore results of the near-field goniophotometer are validated. In recent measures performed at the Light and lighting laboratory of K.U. Leuven in Ghent, it was found that near field goniophotometer has a reduced luminous intensity dynamic range, for this reason exists an error measuring low luminous intensities in a luminarie with a sharp LID such as PAR30 Spot light bulb. After that, some aspects of the Recommended System for Mesopic Photometry Based on Visual Performance, CIE191:2010 are analysed. Finally it is presented a proposal of a new metrics called Energy Consumption Index (Qsa) intended to assessing possible energy savings on street lighting systems. In this chapter, by using the Energy Consumption Index an evaluation of three different hypothetical scenarios for a typical city is performed to demonstrate how flexible and intuitive this index is. These scenarios assess different characteristics of the light system such as light sources types, dimming systems and also the use of photopic and mesopic photometry. / Esta tesis se divide en dos partes: La primera trata con dos características principales de las fuentes de luz para la iluminación general: la calidad del color y de eficacia luminosa. El segundo se ocupa de los aspectos técnicos de la fotometría mesópica aplicada en el alumbrado público. La primera parte comienza proponiendo un procedimiento para generar un nuevo índice de rendimiento de color, que consiste en un índice visual tridimensional, llamado 3D-CRM. Con el fin de ilustrar el uso de este índice, se realizaron tres ejemplos de aplicación de iluminación: Arte, carnes y frutas. Los resultados muestran la bondad del índice visual 3D-CRM, que también se acompaña de un índice numérico que indica que tan bien una fuente de luz bajo prueba repolores la gama de colores para una aplicación de iluminación específica. Como complemento de la propuesta anterior, se realizó un análisis estadístico con el fin de definir los parámetros que componen la calidad de color de fuentes de luz. Este estudio estadístico se basa en una colección de más de 100 espectros reales e ideales de fuentes de luz. Como resultado, se encontró que hay otra variable que puede complementar el índice CRI para indicar la calidad del color. Este es el índice propuesto Oc (óptima del color), que se basa en el cálculo de los volúmenes generados con el espectro de la fuente de prueba y varios espectros ideal de reflectancia para obtener colores óptimos (colores de alta saturación) a diferentes niveles de luminancia. Esta primera parte termina proponiendo un índice para generar una clasificación de las fuentes de luz de acuerdo con los requisitos de la aplicación de iluminación y los parámetros tales como la temperatura de color correlacionada (CCT), la eficacia lumínica de radiación (LER) y la calidad de color (CQ ). Se demostró que el nuevo índice propuesto llamada ECQ (eficacia y calidad del color), es capaz de generar una clasificación útil en la evaluación de una colección de espectros, dando un CCT deseado y el peso que la eficacia y la calidad del color tienen en la aplicación de iluminación estudiado . Mediante el uso de algunos ejemplos de diferentes aplicaciones de iluminación (es decir, diferentes pesos para la calidad del color y la eficacia lumínica) se demostró la versatilidad y utilidad de este indicador. En la segunda parte de esta tesis, se hace una comparación de mediciones de laboratorio entre dos tipos diferentes de Goniofotómetros. El primero es uno estándar basada en el fotómetro, que utiliza el campo lejano para la medición. El segundo tiene una tecnología más reciente, utiliza una cámara CCD y fotómetro como sensores, así como el campo cercano para la medición. Este ejercicio de comparación valida las mediciones de la goniofotómetro de campo cercano, ya que hasta el momento, para este tipo de medición y el tipo de sensor (cámara CCD), no hay laboratorios con trazabilidad internacional que puede verificar o calibrar este sistema de medición. El ejercicio de comparación muestra que hay un muy buen ajuste entre las dos medidas realizadas a las bombillas estándar; Por lo tanto, los resultados del Goniofotómetro de campo cercano se validan. En recientes medidas realizadas en el laboratorio de luz e iluminación de K.U. Lovaina en Gante, se encontró que Goniofotómetro de campo cercano tiene un rango dinámico limitado para medición de intensidad luminosa, por esta razón existe un error de medición de bajas intensidades luminosas en una luminaria con una distribución aguda como por ejemplo un proyector de luz. Posteriormente se analizan, algunos aspectos del sistema recomendado para fotometría mesópica basado en el rendimiento visual, CIE191: 2010. Por último se presenta una propuesta de una nueva métrica llamada Índice de Consumo de Energía (Qsa) destinado a evaluar los posibles ahorros de energía en los sistemas de alumbrado público
193

Low-Power and Compact CMOS Circuit Design of Digital Pixel Sensors for X-Ray Imagers

Figueras i Bagué, Roger 10 April 2015 (has links)
La obtenció d’imatges utilitzant raigs-X ha esdevingut una tecnologia clau per a un ampli rang d’aplicacions tant industrials com mèdiques o científiques, doncs permet estudiar l’interior dels objectes sense necessitat de destruir-los o desmantellar-los. En aquest sentit, hi ha un creixent interès en la recerca en aquests camps, com demostra la literatura, per desenvolupar sistemes avançats de raig-X capaços d’obtenir imatges d’alta qualitat a la vegada que es redueix la dosi total de radiació. Actualment, els imagers de raig-X estan dominats per sistemes híbrids, basats en matrius de píxels en detectors de conversió directa de raig-X i els seus corresponents circuits integrats de lectura (ROICs). Tot i el seu elevat cost i les seves limitacions en àrea en comparació amb els clàssics sensors de conversió indirecta, els avantatges que ofereixen aquests sistemes són clars en quant a la reducció de la dosi de radiació necessària, la millora de la integritat del senyal i l’escalat en la resolució espacial. Pel que fa al mètode de lectura que empren els ROICs, l’estratègia més estesa es basa en el conteig de fotons, degut als avantatges en termes d’immunitat al soroll i de classificació dels fotons. No obstant, aquests sistemes d’imatge per raig-X pateixen de pèrdues d’informació degut a efectes com el charge-sharing i el pile-up. És en aquest context que l’objectiu d’aquest treball de tesi és proposar tècniques específiques de disseny analògic i mixte de circuits per al desenvolupament de píxels digitals sensors (DPS) compactes i de baix consum per a ROICs focalitzats a imagers de raig-X híbrids de conversió directa. L’arquitectura del píxel proposat, basada en el mètode de lectura per integració de càrrega, evita la pèrdua d’informació que pateixen els sistemes basats en el conteig de fotons i contribueix a la qualitat de les imatges per raig-X amb una àrea de píxel compacta i un baix consum per millorar la resolució de la imatge i reduir l’escalfament del detector, respectivament. En aquest sentit, el circuits CMOS del DPS proposat inclouen una conversió de la càrrega sense pèrdues a nivell de píxel per extendre el rang dinàmic, ajust individual del guany per compensar el FPN de la matriu de píxels, capacitat d’autopolarització i comunicacions exclusivament digitals per reduir el crosstalk entre píxels, capacitat d’auto-test per reducció de costos, selecció de la càrrega col·lectable per ampliar el rang d’aplicacions i cancel·lació del corrent d’obscuritat a nivell de píxel. A més, les tècniques de disseny proposades s’orienten al desenvolupament futur de sistemes d’imatge de raig-X modulars 2D amb grans àrees escalables i contínues de sensat. Aquesta recerca en disseny de circuits s’ha materialitzat en diverses generacions de demostradors DPS, amb valors de pitch des de 100μm baixant fins a 52μm, integrades utilitzant una tecnologia CMOS estàndard de 0.18μm i 1P6M. S’ha fet una anàlisi exhaustiva de les mesures tant elèctriques com amb raigs-X dels prototips de circuits proposats per a la seva validació. Els resultats experimentals, alineen aquest treball inclús més enllà de l’estat de l’art en píxels actius en termes de resolució espacial, consum, linealitat, SNR i flexibilitat del píxel. Aquest últim punt adequa les tècniques de disseny de circuits proposades a una àmplia gamma d’aplicacions d’imatges de raigs-X. / X-ray imaging has become a key enabling technology for a wide range of industrial, medical and scientific applications since it allows studying the inside of objects without the need to destroy or dismantle them. In this sense there is a growing research interest in literature to develop advanced X-ray systems capable of obtaining high quality images while reducing the total radiation dose. Currently, X-ray imagers are dominated by hybrid systems, built from a pixel array of direct conversion X-ray detectors and its corresponding readout integrated circuit (ROIC). Despite their higher cost and limited area compared to classical indirect counterparts, the advantages of these systems are clear in terms of radiation dose reduction, signal integrity improvement and spatial resolution scaling. Concerning the readout method used by the ROICs, the most common design strategy is based on photon-counting, due to its advantages regarding circuit noise immunity and photon classification. However, these X-ray imaging systems tend to experience from information losses caused by charge-sharing and pile-up effects. In this context, the goal of the presented thesis work is to propose specific analog and mixed circuit techniques for the full-custom CMOS design of low-power and compact pitch digital pixel sensors (DPS) for ROICs targeting hybrid and direct conversion X-ray imagers. The proposed pixel architecture, based on the charge-integration readout method, avoids information losses experienced by photon-counting and contributes to X-ray image quality by a compact pixel area and low-power consumption to improve image resolution and reduce heating of X-ray detectors, respectively. In this sense, the proposed CMOS DPS circuits feature in-pixel A/D lossless charge conversion for extended dynamic range, individual gain tuning for pixel array FPN compensation, self-biasing capability and digital-only interface for inter-pixel crosstalk reduction, built-in test capability for costs reduction, selectable electron/hole collection to wide the applications range and in-pixel dark current cancellation. Furthermore, the proposed design techniques are oriented to the future development of truly 2D modular X-ray imager systems with large scale and seamless sensing areas. All the above circuit design research has been materialized in several generations of DPS demonstrators, with pitch values ranging from 100μm down to 52μm, all of them integrated using standard 0.18μm 1P6M CMOS technology. Extensive analysis of both electrical and X-ray measurements on the pixel circuit prototypes have been done to proof their validity. Experimental results align this work not only within but also beyond the state-of-the-art active pixels in terms of spatial resolution, power consumption, linearity, SNR and pixel flexibility. This last point makes the proposed pixel design techniques specially suitable for a wide range of X-ray image applications.
194

Lleis d'escala i complexitat estructural de les infraestructures tecnològiques. Els sistemes biològics com a analogia pel disseny i optimització del transport i distribució de l'energia elèctrica

Horta Bernús, Ricard 25 April 2014 (has links)
Within the paradigm of sustainability, this thesis aims to provide complementary views to the conventional engineering in order to put forward tools that facilitate, on the one hand the search of solutions to improve the design of high-voltage power lines , and on the other hand to optimize their networks. As per the improving of a high-voltage line design, Scaling Laws and Gravity Models are used to provide new variables to estimate calculation of the electricity demand of a certain area. This article proposes modifications to the vector diagram of a transmission line operation, known as a Perrine-Baum Diagram to incorporate the new variables proposed with the objective to use this diagram as an application tool in real projects. Regarding the electric power networks, this work applies the analysis tools provided by the theories of Complex Networks to study its topology and spatial features in order to suggest more optimal designs. / Dins del paradigma de la sostenibilitat, aquesta tesi pretén aportar punts de vista complementaris als de l’enginyeria convencional amb l’objectiu de proposar eines que facilitin per una banda, trobar solucions per millorar el disseny de les línies elèctriques d’alta tensió, i per una altra optimitzar les xarxes constituïdes per aquestes. Pel que fa a la millora del disseny d’una línia d’alta tensió, s’han utilitzat les teories de les Lleis d’Escala i els Models Gravitacionals per aportar noves variables als càlculs de previsió de demanda elèctrica d’una regió. S’han proposat modificacions al diagrama vectorial de funcionament d’una línia elèctrica, conegut com a Diagrama Perrine-Baum, per incorporar les noves variables proposades amb l’objectiu que aquest diagrama pugui ser una eina d’aplicació en projectes reals. Pel que fa a les xarxes elèctriques s’han aplicat les eines d’anàlisi aportades per les teories de Xarxes Complexes per estudiar la seva topologia i les característiques espacials, amb l’objectiu de proposar dissenys més òptims.
195

New Architectures for ubiquitous networks : use and adaptation of internet protocols over wireless sensor networks

Ludovici, Alessandro 07 July 2014 (has links)
This thesis focuses on the study of low-resource demanding protocols, communication techniques and software solutions to evaluate, optimise and implement Web service in WSNs. We start analysing the Web service architectures in order to choose the most appropriate for the constraints of WSNs, which is REST. Based on this analysis, we review the state-of-the-art of protocols that allows implementing REST Web services. To this end, we adopt the IEEE 802.15.4 standard for the physical and data-link layers, 6LoWPAN for the network layer and CoAP for the application layer. 6LoWPAN defines two forwarding techniques, which are called mesh under (MU) and route over (RO). It also provides a mechanism to fragment packets, which is called 6LoWPAN fragmentation. In part of the thesis, we study the effects that MU and RO have on communications using 6LoWPAN fragmentation. In particular, MU does not prevent forwarding unnecessary fragments and out-of-order delivery, which could lead to an inefficient use of bandwidth and a growth of energy consumption. We propose, then, a novel technique able to improve the performance of MU with fragmented packets, which we refer to as controlled mesh under (CMU). The results of a performance evaluation in a real WSN show that CMU is able to enhance the performance of MU by reducing its packet loss and end-to-end delay. In 6LoWPAN fragmentation, the loss of a fragment forces the retransmission of the entire packet. To overcome this limitation, CoAP defines blockwise transfer. It splits the packet into blocks and sends each one in reliable transactions, which introduces a significant communication overhead. We propose a novel analytical model to study blockwise and 6LoWPAN fragmentation, which is validated trough Monte Carlo simulations. Both techniques are compared in terms of reliability and delay. The results show that 6LoWPAN fragmentation is preferable for delay-constrained applications. For highly congested networks, blockwise slightly outperforms 6LoWPAN fragmentation in terms of reliability. CoAP defines the observe option to allow a client to register to a resource exposed by a server and to receive updates of its state. Existing QoS in the observe option supports partially timeliness. It allows specifying the validity of an update but it does not guarantee its on-time delivery. This approach is inefficient and does not consider applications, i.e. e-health, that requires the delivery of an update within a deadline. With this limitation in mind, we design and evaluate a novel mechanism for update delivery based on priority. The evaluation proves that implementing a delivery order improves the delay and delivery ratio of updates. Our proposal is also able to reduce the energy consumption allowing clients to express the class of updates that they wish to receive. In part of this thesis, we present our original library for TinyOS, which we referred to as TinyCoAP, and the design and implementation of a CoAP proxy. We compare TinyCoAP to CoapBlip, which is the CoAP implementation distributed with TinyOS. TinyCoAP proves to be able to reach a high code optimization and to reduce the impact over the memory of WSN nodes. The evaluation includes also the analysis of the CoAP reliability mechanism, which was still uncovered in the literature. As a novelty, we also compare CoAP with HTTP considering different solutions for the transport layer protocol such as UDP and persistent TCP connections. The CoAP proxy enables Web applications to transparently access the resources hosted in CoAP devices. It supports long-lived communications by including the WebSocket protocol. It also supports Web applications that use the traditional HTTP long-polling technique. Finally, one of the main contributions of the proxy design is the proposal of a standard URI path format to be used by Web applications to access to a CoAP resource. / Esta tesis se enfoca en el estudio de protocolos de bajo consumo, técnicas de comunicación y software con el fin de evaluar, optimizar y desarrollar servicios Web en WSNs. Empezamos analizando la arquitectura de servicios Web con el objetivo de elegir la arquitectura más apropiada debido a las limitaciones de WSNs. Ésta se denomina REST. En base a este análisis, revisamos el estado del arte de los protocolos que permiten desarrollar servicios Web. Con este objetivo adoptamos el estándar IEEE 802.15.4 por la capa física y de enlace, 6LoWPAN por la de red y CoAP por la capa de aplicación. 6LoWPAN define dos técnicas de enrutamiento, denominadas 'Mesh Under' (MU) y 'Route Over' (RO). Asimismo ofrece un mecanismo para fragmentar paquetes, llamado 6LoWPAN fragmentation. En parte de la tesis estudiamos los efectos que MU y RO tienen sobre la comunicación que utiliza 6LoWPAN fragmentation. En particular, MU no previene enrutar fragmentos innecesarios y la entrega fuera de orden, lo cual podría provocar un uso ineficiente de ancho de banda y un crecimiento del consumo energía. Proponemos entonces nueva técnica capaz de mejorar las prestaciones de MU con paquetes fragmentados que denominamos 'Controlled Mesh Under' (CMU). Los resultados de una evaluación en una WSN real demuestran que CMU es capaz de mejorar las prestaciones de MU reduciendo la pérdida de paquetes y el retraso end-to-end. En 6LoWPAN fragmentation, la pérdida de un fragmento causa la retransmisión del paquete entero. Para evitar esta limitación CoAP define blockwise transfer. Esto divide el paquete en bloques y los envía en comunicaciones fiables provocando overhead. Proponemos un nuevo modelo analítico para estudiar blockwise y 6LoWPAN fragmentation cuya validación se realiza mediante simulaciones de Monte Carlo. Ambas técnicas se comparan en términos de fiabilidad y retraso. Los resultados muestran que es preferible usar 6LoWPAN fragmentation para las aplicaciones con restricciones en retraso. Para las redes mas congestionadas, blockwise mejora ligeramente 6LoWPAN fragmentation en términos de fiabilidad. CoAP define la opción observe para permitir a un cliente registrarse a un recurso proporcionado por un servidor y recibir actualizaciones de su estado. La QoS ofrecida por la opción observe proporciona soporte parcial por el timeliness. Esta permite especificar la validez de una actualización pero no garantiza su entrega a tiempo. Este enfoque es ineficiente y no incluye aplicaciones, como por ejemplo e-health que requieren la entrega de las actualizaciones en un plazo determinado. Teniendo en cuenta esta limitación, diseñamos y evaluamos un mecanismo novedoso para la entrega de actualizaciones basada en la prioridad. La evaluación demuestra que la implementación de una orden de entrega mejora la tasa de llegada y el retraso de las actualizaciones. Nuestra propuesta es capaz de reducir el consumo de energía permitiendo a los clientes expresar el tipo de actualización que desean recibir. En parte de esta tesis presentamos nuestra librería original pro TinyOS a la que nos referimos como TinyCoAP, así como el diseño y desarrollo de un Proxy CoAP. Comparamos TinyCoAP a CoapBlip, que es la aplicación distribuida con TinyOS. TinyCoAP demuestra ser capaz de alcanzar una alta optimización de código y reducir el impacto sobre la memoria de nodos de WSNs. La evaluación también incluye el análisis de la fiabilidad de CoAP que no había sido estudiada en la literatura. Como novedad también comparamos CoAP con HTTP, considerando diferentes soluciones para el protocolo de transporte como UDP y conexiones TCP persistentes. El Proxy CoAP permite a las aplicaciones Web acceder de manera transparente a los recursos almacenados en dispositivos CoAP. Éste incluye el protocolo WebSocket, que permite el establecimiento de conexiones long-lived. También permite el uso de aplicaciones Web con la tradicional técnica HTTP long-polling
196

De la oscuridad a la oscuridad : estudio sobre el crecimiento exponencial de la tecnología y su influencia en la concepción del hogar

Rico Panceiras, Ángel 27 June 2014 (has links)
Our approach in this thesis has considered that, in the contemporary society, there are several ongoing technology related phenomena which are transforming their relation with architecture and, consequently, the modes of use, occupancy and projection of the built environment. Starting from the personal concept of home, the introduction and influence of high technology (with a special reference to the ICT) in the space of the hose is investigated from several points of views. The goal of this analysis to delineate a model for the introduction of technology that allow us to predict future trends. After delimiting the realm of study geographically, socially and temporarily and establishing the point of origin of the phenomenon studied, the main vectors for the research - time, technology, speed and adaptation- are defined conceptually. After the definition of these vectors we consider the system of access of technology to the dwelling through the individual analysis of several technologies that have already modified our contemporary homes. For that, an analytical method is developed and applied to the following technologies: lighting, elevators, telephone, radio, refrigeration, mobile telephones, computers and the Net. This analysis is followed by a consideration of the influence of these technologies in the dwelling based on the temporal subdivision of their influence -that goes through the phases of emergence, adaptation and acceptance-with the aim of delineating the patterns of the proposed model. As it is shown in the research this model is changing but it still has some constants that allow us to predict possible trends- in as much as they are considered in relation to the corresponding temporal phase. A study of the evolution of the distribution and the users of these programs has been conducted, considering specially the tendencies of the natives of the Net who will be, in the close future, the users and inhabitants of the new dwellings. After the analysis we consider, in the chapter of conclusions, the disruptive variables that have a greater potential of consolidation in the moment of writing this thesis; namely, the augmented reality, nanotechnology and the cloud. Consequently, these are the variables that we should follow more carefully; being attentive, yet, to the possible emergence of new disruptive technologies. This consideration aims to keep us as professionals in a position of knowledge of the future trends that will permit to maintain our role in the definition of the architectural processes of the future. Finally this study formulates some trends for the future based on the main contemporary variables; trends as dematerialization, technological convergence, the dissolution and the concept of the architect. These considerations do not have any predictive pretension. They do only attempt to show possible trends based on contemporary evidence. / Se ha abordado esta tesis entendiendo que en la sociedad actual hay fenómenos en curso, relacionados con la tecnología, que están transformando su relación con la arquitectura y, en consecuencia, los modos de uso, ocupación y proyecto del espacio construido. Partiendo del concepto personal de hogar, se investiga desde diferentes puntos de vista, la penetración e influencia de la alta tecnología (con especial referencia a las T.I.C.) en el espacio de la vivienda. La finalidad es aportar un modelo de penetración que permita determinar tendencias futuras. Tras acotar el ámbito de estudio a nivel geográfico, social y temporal, además de establecer el punto de partida del fenómeno a estudiar, se definen conceptualmente los vectores imprescindibles para el desarrollo del trabajo; como son el tiempo, la tecnología, la velocidad y la adaptación. Con la definición de dichos vectores se pasa a establecer el sistema de acceso de las tecnologías al espacio de la vivienda, mediante el análisis individual de una serie de ellas que ya han modificado el hogar actual. Para ello, se desarrolla un método analítico que se aplicará a las siguientes tecnologías: la iluminación, el ascensor, el teléfono, la radio, la nevera. la televisión, la telefonía móvil, el computador y la Red. Basándose en una subdivisión temporal de la incidencia de estas tecnologías, pasando por las fases de: Irrupción, adaptación y aceptación; se reflexiona en cada una de ellas su incidencia en la arquitectura de la vivienda, con la intención de que sumando los análisis individuales, den pautas para el modelo. Como se demuestra, es cambiante pero mantiene constantes que permiten. si son entendidas en la fase temporal correcta, predecir las tendencias. Se realiza un estudio sobre la evolución de las distribuciones y los usuarios de dichos programas; analizando especialmente las tendencias de los nativos de la Red que serán los usuarios, en un futuro inmediato de las nuevas viviendas. Tras el análisis y en el capítulo de conclusiones, se desarrollan las variables disruptivas que en el momento de escribir la tesis, plantean más potencial de consolidación. Estas son: La realidad aumentada, la nanotecnología y la nube. Por tanto, son estas variables a las que debemos hacer un especial seguimiento, atendiendo en todo momento al surgimiento de otras nuevas. Siempre, con la intención de mantenernos como profesionales, en una posición de conocimiento de las tendencias que nos permita tener una presencia de peso en el proceso arquitectónico futuro. Para finalizar, en el estudio se plantean las tendencias de futuro basadas en las variables actuales, como son la desmaterialización, la convergencia tecnológica, la disolución y el concepto de arquitecto, como se deja claro en la tesis sin ninguna pretensión predictiva sino de tendencia
197

Contributions to the performance evaluation and improvement of the IPv6 routing protocol for low-power and lossy networks

Kermajani, Hamidreza 03 September 2014 (has links)
Wireless Sensor Networks (WSNs) have become increasingly important. These networks comprise sensor and actuator nodes that enable intelligent monitoring and control applications in a wide spectrum of environments including smart cities, home automation, remote health and precision agriculture to mention a few. In certain IETF circles, networks of these characteristics are called Low Power and Lossy Networks (LLNs). Whereas most LLN protocol architectures were born without native IP support, there exists a tendency in the market towards IP convergence, since IP-based LLNs offer an open and tandardized way of connecting LLNs to the Internet, thus nabling the Internet of Things (IoT). Since most LLN configurations are multihop, and thus a routing protocol is required, the IETF created the Routing Over Low power and Lossy networks (ROLL) working group, which decided to develop a new routing protocol called IPv6 Routing Protocol for LLNs (RPL). RPL was specifically designed to meet the requirements of LLNs and is a central component of the IETF protocol suite for the IoT. Since RPL has already been deployed in millions of nodes, it is fundamental to characterize its properties, evaluate the influence of its main parameters and options on network performance, and analyze performance improvement possibilities. This PhD thesis presents the following original contributions in this field: 1. Evaluation of the influence of the main RPL parameters on the network convergence process over IEEE 802.15.4 multihop networks, in terms of network characteristics such as size and density. In addition, a mechanism that leverages an option available in RPL for accelerating network convergence has been proposed and evaluated. This study provides a guideline for configuring and selecting adequately crucial RPL parameters and mechanisms for achieving high network convergence performance, as well as a characterization of the related performance trade-offs. 2. Development of an analytical model for estimating the network convergence time of RPL in a static chain topology network of IEEE 802.15.4 nodes, in the presence of bit errors. Results show the scenarii in terms of BER and chain topology length that may dramatically degrade performance experienced by a user. The model provides a lower bound on the network convergence time for a random topology network. 3. Development of an analytical tool to estimate the number of control messages transmitted in a random topology static network which uses the Trickle algorithm (a transmission scheduling algorithm used in RPL) under steady state conditions. Results show the accuracy of the model, which can be used for both synchronous and asynchronous networks. The slight difference in performance between these two network configurations is discussed and illustrated. 4. Theoretical evaluation of the route change latency incurred by RPL when 6LoWPAN Neighbor Discovery (ND) is used. On this basis, a study on the impact of the relevant 6LoWPAN ND and RPL parameters on path availability and the trade-off between path availability and message overhead, has been carried out. 5. Development of a RPL simulator for OMNeT++ using the MiXiM framework. / La importància de les Wireless Sensor Networks (WSNs) ha estat creixent significativament en els darrers anys. Aquestes xarxes comprenen node sensors i actuadors que possibiliten aplicacions de control i monitorització en un ampli ventall d'entorns, incloent les ciutats intel·ligents, automatització residencial, etc. En alguns cercles de l'IETF, aquestes xarxes són anomenades Low Power and Lossy Networks (LLNs). La majoria d'arquitectures de protocols van néixer sense suport natiu per a IP, per ha existit recentment una tendència en el mercat envers la convergència IP, ja que les LLN basades en IP ofereixen una manera oberta i estandaritzada de connectar LLNs a Internet, tot creant la Internet de les Coses. Atès que moltes configuracions de LLNsn multisalt, i per tant es requereix un protocol d'encaminament, l'IETF va crear el Routing Over Low power and Lossy networks (ROLL) working group, que va decidir dissenyar un nou protocol anomenat IPv6 Routing Protocol for LLNs (RPL). RPL va ser específicament dissenyat per complir amb els requeriments de les LLNs i és un component central de la pila de protocols de l'IETF per a la Internet de les Coses. Atès que RPL ha estat desplegat en milions de nodes, és fonamental caracteritzar les seves propietats, avaluar la influència dels seus paràmetres principals i opcions en el rendiment, i analitzar les possibilitats de millora del protocol. Aquesta tesi presenta les següents contribucions originals en aquest camp: 1. Avaluació de la influència dels principals paràmetres de RPL en el procés de convergència de la xarxa en xarxes IEEE 802.15.4, en termes de característiques com la mida i la densitat de la xarxa. A més a més, s'ha proposat i avaluat un mecanisme que utilitza una opci disponible en el RPL per a accelerar la convergència de xarxa. Aquest estudi proporciona una guia per configurar i escollir adequadament paràmetres crucials del protocol RPL per tal d'assolir una ràpida convergència de xarxa, això com una caracteritzaci dels compromisos relacionats. 2. Desenvolupament d'un model analátic per estimar el temps de convergència de xarxa de RPL en una topologia de xarxaestàtica en cadena de nodes IEEE 802.15.4, en presència d'errors. Els resultats mostren els escenaris en termes de BER i mida de la cadena que poden degradar les prestacions percebudes per l'usuari. El model proporciona una fita inferior del temps de convergència de xarxa per a una topologia aleatòria. 3. Desenvolupament d'una eina analítica per estimar el nombre de missatges de control transmesos en una xarxa de topologia aleat ria i estàtica on s'usa l'algoritme Trickle (algoritme de planificació i control de les transmissions emprat en RPL), en condicions de règim permanent. Els resultats mostren la precisió del model, que pot ser emprat en xarxes síncrones i asíncrones. La lleugera diferència de prestacions entre un escenari i l'altre és discutida i il·lustrada. 4. Avaluació teòrica del temps de canvi de ruta de RPL quan s'usa 6LoWPAN Neighbor Discovery (ND). En base a aixó , es realitza un estudi de l'impacte dels paràmetres rellevants de RPL i 6LoWPAN ND en la disponibilitat de cambi el compromís amb l'overhead de missatges. 5. Desenvolupament d'un simulador de RPL per a OMNeT++ usant el MiXiM framework
198

Off-line and in-operation optical core networks planning

Castro, Alberto 10 October 2014 (has links)
The ever increasing IP traffic volume has finally brought to light the high inefficiency of current wavelength-routed over rigid-grid optical networks in matching the client layer requirements. Such an issue results in the deployment of large-size, expensive and power-consuming Multiprotocol Label Switching (MPLS) layers to perform the required grooming/aggregation functionality. To deal with this problem, the emerging flexgrid technology, allowing for reduced size frequency grids, is being standardized. Flexgrid optical networks divide the spectrum into frequency slots providing finer granularity than rigid networks based on Dense Wavelength Division Multiplexing (DWDM). To find a feasible allocation, new Routing and Spectrum Allocation (RSA) algorithms for flexgrid optical networks need to be designed and evaluated. Furthermore, due to the flexibility of flexible optical networks, the aggregation functions and statistical multiplexing can be partially located in the optical layer. In addition, given the special characteristics of flexible optical networks, the traditional mechanisms for protection and recovery must be reformulated. Optical transport platforms are designed to facilitate the setting up and tearing down of optical connections (lightpaths). Combining remotely configurable optical cross-connects (OXCs) with a control plane provides the capability of automated lightpath set-up for regular provisioning, and real-time reaction to the failures, being thus able to reduce Operational Expenditures (OPEX). However, to exploit existing capacity, increase dynamicity, and provide automation in future networks, current management architectures, utilizing legacy Network Management Systems (NMS) need to be radically transformed. This thesis is devoted to design optical networks and to devise algorithms to operate them. Network design objective consists of: i. Analyzing the cost implications that a set of frequency slot widths have on the Capital Expenditures (CAPEX) investments required to deploy MPLS-over-flexgrid networks; ii. Studying recovery schemes, where a new recovery scheme specifically designed for flexgrid-based optical networks is proposed. As for network operation, we focus on: i. Studying provisioning, where two provisioning algorithms are proposed: the first one targets at solving the RSA problem in flexgrid networks, whereas the second one studies provisioning considering optical impairments in translucent DWDM networks; ii. Getting back to the recovery problem, we focus on algorithms to cope with restoration in dynamic scenarios. Several algorithms are proposed for both single layer and multilayer networks to be deployed in the centralized Path Computation Element (PCE); iii. One of the main problems in flexgrid networks is spectrum defragmentation. In view of that, we propose an algorithm to reallocate already established optical connections so as to make room for incoming requests. This algorithm is extended with elasticity to deal with time-varying traffic. The above algorithms are firstly implemented and validated by using simulation, and finally experimentally assessed in real test-beds. In view of PCE architectures do not facilitate network reconfiguration, we propose a control and management architecture to allow the network to be dynamically operated; network resources can be made available by reconfiguring and/or re-optimizing the network on demand and in real-time. We call that as in-operation network planning. It shall be mentioned that part of the work reported in this thesis has been done within the framework of several European and National projects, namely STRONGEST (FP7-247674), IDEALIST (FP7-ICT-2011-8), and GEANT (FP7-238875) funded by the European Commission, and ENGINE (TEC2008-02634) and ELASTIC (TEC2011-27310) funded by the Spanish Science Ministry. / El volumen creciente del tráfico IP, finalmente, ha puesto de manifiesto la alta ineficiencia de las redes ópticas actuales de grid rígido basadas en WDM en la adecuación a los requisitos de capa de cliente. Dicho problema genera que se deba desplegar una red con capas MPLS de gran tamaño, costosa y de alto consumo energético para poder realizar la funcionalidad de agregación requerida. Para hacer frente a este problema, la tecnología flexgrid emergente, que permite grids con frecuencias de menor tamaño, está siendo estandarizada. Las redes ópticas flexgrid dividen el espectro en slots de frecuencia, lo que proporciona una granularidad más fina en comparación a las redes rígidas basadas en WDM. Para encontrar una asignación factible, nuevos algoritmos de enrutamiento y asignación de espectro (RSA) para redes ópticas flexgrid deben ser diseñados y evaluados. Además, debido a la flexibilidad de las redes ópticas flexibles, las funciones de agregación y de multiplexación estadística pueden ser parcialmente situadas en la capa óptica. Asimismo, dadas las características especiales de las redes ópticas flexibles, los mecanismos tradicionales de protección y recuperación deben reformularse. Las plataformas de transporte ópticas están diseñadas para facilitar la creación y destrucción de conexiones ópticas. La combinación de OXCs configurables remotamente con un plano de control, proporciona la capacidad de crear conexiones automáticamente para el aprovisionamiento habitual, y la reacción en tiempo real a los fallos, para así poder reducir el OPEX. Sin embargo, para aprovechar la capacidad existente, aumentar la dinamicidad y proporcionar automatización a las redes del futuro, las arquitecturas actuales de gestión, que utilizan sistemas legados de NMS, necesitan ser transformadas de manera radical. Esta tesis está dedicada al diseño de redes ópticas y a la creación de algoritmos para operarlas. El objetivo de diseño de red se compone de: 1. El análisis de las implicancias en el costo que tiene un conjunto de slots de frecuencia en el CAPEX necesario para implementar redes MPLS-over-flexgrid; 2. El estudio de esquemas de recuperación, donde se propone un nuevo esquema de recuperación diseñado específicamente para las redes ópticas basadas en flexgrid. En cuanto a la operación de la red: 1. El estudio de aprovisionamiento, donde se proponen dos algoritmos de aprovisionamiento: el primero de ellos tiene como objetivo solucionar el problema de RSA en redes flexgrid, mientras que el segundo estudia aprovisionamiento considerando la degradación óptica en redes WDM translúcidas; 2. Volviendo al problema de la recuperación, nos centramos en algoritmos de restauración para escenarios dinámicos. Se proponen varios algoritmos, tanto para redes mono-capa como multi-capa, que serán desplegados en un PCE centralizado; 3. Uno de los principales problemas en las redes flexgrid es la desfragmentación del espectro. Para ello, se propone un algoritmo para reasignar las conexiones ópticas ya establecidas con el fin de hacer espacio a las entrantes. Este algoritmo se extiende con elasticidad para ser utilizado en escenarios con tráfico variable en el tiempo. Los algoritmos anteriores son primero implementados y validados utilizando simulación, y finalmente son evaluados experimentalmente en testbeds reales. En vista de que las arquitecturas de PCE no facilitan la reconfiguración de la red, proponemos una arquitectura de control y gestión para permitir que la red pueda ser operada de forma dinámica; hacer que los recursos de la red estén disponibles mediante reconfiguración y/o re-optimización de la red bajo demanda y en tiempo real. A eso lo llamamos planificación en operación de la red. El trabajo presentado en esta tesis se ha realizado en el marco de proyectos europeos y nacionales: STRONGEST (FP7-247674), IDEALIST (FP7-2011-8), y GEANT (FP7-238875) financiados por la CE, y ENGINE (TEC2008-02634) y ELASTIC (TEC2011-27310) financiados por el MINECO
199

Monocular depth estimation in images and sequences using occlusion cues

Palou Visa, Guillem 21 February 2014 (has links)
When humans observe a scene, they are able to perfectly distinguish the different parts composing it. Moreover, humans can easily reconstruct the spatial position of these parts and conceive a consistent structure. The mechanisms involving visual perception have been studied since the beginning of neuroscience but, still today, not all the processes composing it are known. In usual situations, humans can make use of three different methods to estimate the scene structure. The first one is the so called divergence and it makes use of both eyes. When objects lie in front of the observed at a distance up to hundred meters, subtle differences in the image formation in each eye can be used to determine depth. When objects are not in the field of view of both eyes, other mechanisms should be used. In these cases, both visual cues and prior learned information can be used to determine depth. Even if these mechanisms are less accurate than divergence, humans can almost always infer the correct depth structure when using them. As an example of visual cues, occlusion, perspective or object size provide a lot of information about the structure of the scene. A priori information depends on each observer, but it is normally used subconsciously by humans to detect commonly known regions such as the sky, the ground or different types of objects. In the last years, since technology has been able to handle the processing burden of vision systems, there has been lots of efforts devoted to design automated scene interpreting systems. In this thesis we address the problem of depth estimation using only one point of view and using only occlusion depth cues. The thesis objective is to detect occlusions present in the scene and combine them with a segmentation system so as to generate a relative depth order depth map for a scene. We explore both static and dynamic situations such as single images, frame inside sequences or full video sequences. In the case where a full image sequence is available, a system exploiting motion information to recover depth structure is also designed. Results are promising and competitive with respect to the state of the art literature, but there is still much room for improvement when compared to human depth perception performance. / Quan els humans observen una escena, son capaços de distingir perfectament les parts que la composen i organitzar-les espacialment per tal de poder-se orientar. Els mecanismes que governen la percepció visual han estat estudiats des dels principis de la neurociència, però encara no es coneixen tots els processos biològic que hi prenen part. En situacions normals, els humans poden fer servir tres eines per estimar l’estructura de l’escena. La primera és l’anomenada divergència. Aprofita l’ús de dos punts de vista (els dos ulls) i és capaç¸ de determinar molt acuradament la posició dels objectes ,que a una distància de fins a cent metres, romanen enfront de l’observador. A mesura que augmenta la distància o els objectes no es troben en el camp de visió dels dos ulls, altres mecanismes s’han d’utilitzar. Tant l’experiència anterior com certs indicis visuals s’utilitzen en aquests casos i, encara que la seva precisió és menor, els humans aconsegueixen quasi bé sempre interpretar bé el seu entorn. Els indicis visuals que aporten informació de profunditat més coneguts i utilitzats són per exemple, la perspectiva, les oclusions o el tamany de certs objectes. L’experiència anterior permet resoldre situacions vistes anteriorment com ara saber quins regions corresponen al terra, al cel o a objectes. Durant els últims anys, quan la tecnologia ho ha permès, s’han intentat dissenyar sistemes que interpretessin automàticament diferents tipus d’escena. En aquesta tesi s’aborda el tema de l’estimació de la profunditat utilitzant només un punt de vista i indicis visuals d’oclusió. L’objectiu del treball es la detecció d’aquests indicis i combinar-los amb un sistema de segmentació per tal de generar automàticament els diferents plans de profunditat presents a una escena. La tesi explora tant situacions estàtiques (imatges fixes) com situacions dinàmiques, com ara trames dins de seqüències de vídeo o seqüències completes. En el cas de seqüències completes, també es proposa un sistema automàtic per reconstruir l’estructura de l’escena només amb informació de moviment. Els resultats del treball son prometedors i competitius amb la literatura del moment, però mostren encara que la visió per computador té molt marge de millora respecte la precisió dels humans.
200

Characterization of nanomechanical resonators based on silicon nanowires

Sansa Perna, Marc 23 July 2013 (has links)
Els sensors de massa nanomecànics han atret un gran interès darrerament per la seva alta sensibilitat, que ve donada per les petites dimensions del ressonador que actua com a element sensor. Aquesta tesi tracta sobre la fabricació i caracterització de ressonadors nanomecànics per a aplicacions de sensat de massa. Aquest objectiu inclou diferents aspectes: 1) el desenvolupament d’una tecnologia de fabricació per a ressonadors nanomecànics basats en nanofils de silici, 2) la caracterització de la seva resposta freqüencial utilitzant mètodes elèctrics i 3) l’avaluació del seu rendiment com a sensors de massa. Durant aquest treball hem fabricat ressonadors nanomecànics basats en nanofils de silici doblement fixats, utilitzant dues estratègies de fabricació diferents: els nanofils crescuts amb mètodes bottom-up (“de baix a dalt”), i els definits amb mètodes de litografia top-down (“de dalt a baix”). Aprofitant les característiques d’ambdues tècniques, hem fabricat nanofils amb dimensions laterals de fins a 50 nanòmetres, i amb un alt nombre de dispositius per xip, aconseguint un alt grau de rendiment per a estructures d’aquestes dimensions. Hem aplicat esquemes avançats de detecció elèctrica basats en la mescla de senyals cap a freqüències baixes per tal de caracteritzar la resposta freqüencial dels ressonadors. Hem demostrat que el mètode de freqüència modulada (FM) proporciona la millor eficiència en la transducció de l’oscil·lació mecànica en una senyal elèctrica. Aquesta tècnica ha permès detectar múltiples modes de ressonància del ressonador, a freqüències de fins a 590 MHz. La detecció de modes de ressonància superiors és important per tal de solucionar una de les principals problemàtiques en el camp dels sensors de massa nanomecànics: desacoblar els efectes de la posició i la massa de la partícula dipositada. També hem combinat la informació obtinguda de la caracterització elèctrica amb simulacions d’elements finits per tal de quantificar l’estrès acumulat als nanofils durant la seva fabricació. Hem estudiat els sistemes de transducció electromecànica en ressonadors basats en nanofils de silici comparant l’eficiència de tres mètodes de detecció: el mètode FM ja esmentat i els mètodes de dos generadors, 1ω i de dos generadors, 2ω. D’aquesta manera hem demostrat que dos mecanismes de transducció diferents coexisteixen en els nanofils de silici bottom-up: el mecanisme lineal (en què la senyal transduïda és proporcional al moviment del ressonador) i el quadràtic (en què la senyal transduïda és proporcional al quadrat del moviment del ressonador). Per altra banda, en els ressonadors top-down només és present el mecanisme de transducció lineal. Aquest mecanisme lineal és el que permet la gran eficiència del mètode FM per a la caracterització de la resposta freqüencial de ressonadors basats en nanofils de silici. Per tal d’utilitzar els ressonadors nanomecànics com a sensors de massa, el seguiment de la freqüència de ressonància en temps real és indispensable. Hem dissenyat i implementat una configuració en llaç tancat basada en la caracterització FM i un algorisme de detecció de pendent. Aquest sistema permet el seguiment de canvis en la magnitud i freqüència de la resposta del ressonador, possibilitant la detecció de massa en temps real i la caracterització de l’estabilitat temporal del sistema. D’aquesta manera s’ha pogut avaluar l’eficiència del sistema per a aplicacions de sensat de massa. La sensibilitat en massa dels sensors de dimensions més reduïdes és de l’ordre de 6 Hz/zg (1 zg = 6·10-21 g), i les mesures d’estabilitat en freqüència en llaç tancat mostren una resolució en massa de 6 zg a temperatura ambient. / Nanomechanical mass sensors have attracted interest during the last years thanks to their unprecedented sensitivities, which arise from the small dimensions of the resonator which comprises the sensing element. This thesis deals with the fabrication and characterization of nanomechanical resonators for mass sensing applications. This objective comprises three different aspects: 1) the development of a fabrication technology of nanomechanical resonators based on silicon nanowires (SiNW), 2) the characterization of their frequency response by electrical methods and 3) the evaluation of their performance as mass sensors. During this work, we have fabricated nanomechanical resonators based on SiNW clamped-clamped beams, using two different approaches: bottom-up growth of SiNW and top-down definition by lithography methods. By exploiting the advantages of each technique, we have succeeded in fabricating nanowires of small lateral dimensions, in the order of 50 nanometers, and with high number of devices per chip, achieving a high throughput taking into account the dimensions of these structures. We have applied advanced electrical detection schemes based on frequency down-mixing techniques for the characterization of the frequency response of the devices. We have found that the frequency modulation (FM) detection method provides the best efficiency in transducing the mechanical oscillation into an electrical signal. This technique has enabled the detection of multiple resonance modes of the resonator at frequencies up to 590 MHz. The detection of high modes of resonance is important to address one of the issues in nanomechanical mass sensing, decoupling the effects of the position and mass of the deposited species. Moreover, by combining the information obtained from the experimental characterization of the frequency response with FEM simulations, we have quantified the stress accumulated in the SiNWs during the fabrication. We have studied the electromechanical transduction mechanisms in SiNW resonators by the comparative performance of three electrical detection methods: the aforementioned FM and two more detection techniques (namely the two-source, 1ω and the two-source, 2ω). We have proved that two different transduction mechanisms co-exist in bottom-up grown SiNWs: linear (in which the transduced signal is proportional to the motion of the resonator) and quadratic (in which the transduced signal is proportional to the square of the motion of the resonator). On the other hand, in the top-down nanowires only the linear transduction mechanism is present. It is this newly found linear transduction which enables the outstanding performance of the FM detection method when characterizing the frequency response of SiNW resonators. For the use of nanomechanical resonators in mass sensing applications, the real-time tracking of their resonance frequency is needed. We have designed and implemented a novel closed-loop configuration, based on the FM detection technique and a slope detection algorithm. It allows the monitoring of changes in the magnitude and the frequency of the response of the resonator, enabling not only the real time detection of mass, but also the characterization of the temporal stability of the system. In this way, its overall performance for mass sensing applications has been characterized. The mass sensitivity of the system for the smallest resonators stands in the range of 6 Hz/zg (1 zg = 6·10-21 g) and the frequency stability measurements in the closed loop configuration reveal a mass resolution of 6 zg at room temperature.

Page generated in 0.1098 seconds