181 |
Resonadores micromecanizados para su aplicación en la detección de gasesMorata Cariñena, Marta 23 June 2004 (has links)
El objetivo de este trabajo consiste en diseñar, fabricar y caracterizar nuevas estructuras mecánicas micromecanizadas para su aplicación a sensores de gases.Para ello, y dentro del campo de la micromecanización como tecnología utilizada para la fabricación de sensores de gases resonantes, se han utilizado dos concepciones distintas: la micromecanización en superficie ("Surface Micromachining") y la micromecanización en volumen ("Bulk Micromachining"). Estas dos tecnologías son utilizadas para fabricar dispositivos resonantes micromecanizados que combinado con el uso de polímeros específicos permite detectar gases y componentes volátiles. Los polímeros, como capa sensible, ante la presencia de ciertos gases incrementan su masa (Dm) y este incremento de masa produce una variación de la frecuencia de la estructura resonante. La variación de frecuencia permite determinar cuantitativamente la presencia de los elementos volátiles. Por tanto, se pretende fabricar estructuras resonantes de dimensiones pequeñas con el objetivo de obtener frecuencias de resonancia elevadas y por tanto, estructuras con mayor sensibilidad a gases cuando el resonador actúa como sensor de gases. Esta tesis se enmarca dentro de los proyectos nacionales "Jamotrón" y "Migra". Estos proyectos están enmarcados dentro de la temática de fabricación de microsensores micromecanizados. El uso del silicio como base para el desarrollo de tecnologías en microelectrónica, tanto por sus propiedades eléctricas como mecánicas, ha sido decisivo en el desarrollo de circuitos integrados microelectrónicos y ha resultado fundamental para el desarrollo de sensores y actuadores, ya que el silicio se ha impuesto como material sensor en muchas aplicaciones o bien es el material que sirve de substrato. Entre los distintos tipos de sensores basados en la tecnología del silicio, los sensores mecánicos han experimentado un rápido desarrollo debido a la multitud de aplicaciones industriales. Este hecho es el causante de que actualmente se dediquen grandes esfuerzos para la mejora de las prestaciones de estos sensores mediante la investigación en nuevos diseños y nuevas tecnologías. En este sentido los progresos han sido considerables, especialmente si se tiene en cuenta el avance que ha supuesto el desarrollo de técnicas de micromecanización del silicio para la realización de estructuras que han facilitado la fabricación de dispositivos capaces de detectar magnitudes mecánicas y térmicas con elevada precisión y fiabilidad.Los sensores mecánicos permiten la medida de una gran variedad de parámetros físicos con una alta precisión. Asimismo pueden aplicarse al campo de los sensores químicos, si se utilizan como sensores de cambio de la masa de una capa químicamente sensible. Las aplicaciones de este tipo de sistemas son muy variadas y de fuerte repercusión en la industria, por tanto su desarrollo no sólo tiene importancia dentro del ámbito científico sino tambien desde el punto de vista industrial. El control de calidad de aire, control de alimentos o industria del perfume son aplicaciones típicas. Dentro de los sensores mecánicos son los resonadores los que sirven de base para el desarrollo de este trabajo. En concreto se va a desarrollar un dispositivo que podrá ser utilizado para la determinación de aromas en el control de calidad de productos alimentarios.El hecho de utilizar sensores resonantes añade grados de libertad al diseño en cuanto no sólo es posible variar la sensibilidad del propio material activo sino también la geometría y propiedades resonantes del dispositivo. Es conveniente considerar procesos tecnológicos que permitan cubrir diferentes sensibilidades y rangos de frecuencia.Por tanto, una parte del trabajo se ha dedicado al estudio de la viabilidad de distintas tecnologías de micromecanizxado para fabricar resonadores con diferentes tecnologías microelectrónicas para obtener dispositivos de muy pequeñas dimensiones y de alta sensibilidad. / In this work, the objective consists on design, fabricate and characterise new micromechanical structures for gas sensor application.Silicon micromechanical technology has been used for the fabrication of resonant gas sensor. Two technologies have been used: surface and bulk micromachining. The resonant devices fabricated on these technologies, combine with the use of a specific polymeric layer, allow to detect VOCs. Polymers, as a sensitive layer, increment its mass in a Dm. This mass variation (Dm) produces a decrement on the resonant frequency of the structure and so on, allow to determine VOCs quantitatively. The proposed structures have reduce dimensions, high resonant frequencies and high sensibility.This thesis has two Spanish support projects: "Jamotrón" and "Migra". The topic of this projects has been developed on micromechanical microsensors.Silicon is used as substrate in microelectronic technologies, for its mechanical and electrical properties. Silicon is the base of the development of integrated circuits, sensors and actuators. Specially, mechanical sensors has experimented a quickly development due to lot of industrial applications. Actually, industry spreads to improve the sensors characteristics with investigations, new designs and new technologies. Silicon technology allows to fabricate devices to detect mechanical and thermal parameters with high precision and reliability.This work studies the different microtechnologies to fabricate resonant structures and to obtain diminutive dimensions and high sensitivity.
|
182 |
Parallel post-processing solution for GNSS-R instrumentYi, Guo 16 December 2011 (has links)
Las se˜nales de banda trasmitidas por los sistemas de navegaci´on global por sat´elite
(GNSS, Global Navigation Satellites Systems) permiten averiguar algunas de las
propiedades geof´ısicas de la Tierra al reflejarse en su superficie. Este concepto se
llama reflectometr´ıa GNSS (GNSS-R) o sistema de interferometr´ıa y reflectometr´ıa
pasivo (PARIS, Passive Reflectometry and Interferometry System).
Una serie de receptores GNSS-R especializados se encargan de procesar las se˜nales
recogidas. Esta tesis se centra en el dise˜no de dichos receptores, que permite
principalmente procesar a posteriori los datos GNSS-R obtenidos, con el objetivo de
reducir la tasa de transferencia de datos sostenida (sustained data throughput) del
dispositivo, que es de alrededor de varios MB/s. Dicha cantidad de datos afecta
enormemente al dise˜no de receptores GNSS-R.
En nuestro trabajo, hemos tomado como ejemplo de dise˜no de receptores GNSSR
el receptor GOLD-RTR (GPS Open-Loop Differential Real Time Receiver), dise˜nado,
desarrollado y construido en el ICE (IEEC-CSIC). El problema al que nos enfrentamos
es el siguiente: disponemos de un sistema que produce 12.8 Mb/s de forma sostenida
y necesitamos reducir su magnitud tres veces mediante la aplicaci´on de algoritmos
de integraci´on adecuados, que discutimos m´as adelante.
Las investigaciones realizadas durante mi doctorado, centradas en un tema muy
amplio, las he aplicado al estudio y tratamiento de la plataforma de dise˜no del
hardware correspondiente. El tema desarrollado fue el uso del paralelismo para
el sistema de post-procesamiento GNSS-R, con especial atenci´on a los algoritmos
de integraci´on. El tema del paralelismo se considera un aspecto problem´ atico de
m´ultiples dimensiones, siendo las m´as tratadas la del dise˜no de tareas y de memoria.
Se desarroll ´o una plataforma SMLOL (Symmetric Multi-Leon3 On Linux) para tratar
los problemas de sincronizaci´on de la aplicaci´on GNSS-R. Aqu´ı se trat´o el uso
del paralelismo para el sistema de tareas, con especial atenci´on al esquema SMP
(Symmetric MultiProcessing) convencional.
Como problema multitarea, evaluamos la carga computacional y el rendimiento del
sistema y comprobamos las congestiones del sistema. Sin embargo, el desequilibrio
en la carga de trabajo del dise˜no del hardware(en procesadores, memoria cach´e,
memoria principal y buses) no se puede solucionar fundamentalmente mediante una
metodolog´ıa aplicada al software.
Posteriormente se desarroll ´o la plataforma HTPCP (Heterogeneous Transmission
and Parallel Computing Platform) para equilibrar la carga de trabajo de transmisi´on y
computacional. En este caso, se trat´o el uso del paralelismo con relaci´on a la memoria
del sistema. Segu´n los resultados de simulacio´n obtenidos con el emulador MPARM,
construimos y optimizamos el sistema de jerarqu´ıa de memoria, para eliminar la tasa
de ocupaci´on del bus y el tiempo de acceso a la memoria entre la memoria cach´e y la
memoria principal.
Asimismo, en relaci´on con el problema de congesti´on en el bus, implementamos
dos tipos de elementos: elementos de transmisi´on (TEs) y elementos de procesamiento
(PEs), as´ı como varios dise˜nos de interfaces: interfaz MPI (Massage Passing Interface)
e interfaz FSL (Fast Simplex Link) en HTPCP.
La soluci´on deseada era dise˜nar, construir y probar un sistema con capacidad
para reducir tres veces la magnitud del flujo de informaci´on mediante algoritmos de
post-procesamiento aut´onomos. / L-band signals transmitted by the Global Navigation Satellites Systems (GNSS)
from its reflection off the Earth’s surface allow for the inference of some of its
geophysical properties. This concept is named GNSS-Reflectometry (GNSS-R), or
PAassive Reflectometry and Interferometry System (PARIS).
The collected signals are processed by specialized GNSS-R receivers. This
dissertation focusses on system design, which is primarily able to post-process the
received GNSS-R data, with the purpose of reducing the sustained data throughput
of the instrument, which is in the order of several Mbytes/sec. This amount of data
poses very stringent requirements on GNSS-R designers .
In our study, we have taken as an example of GNSS-R receiver design, the
GPS Open-Loop Differential Real Time Receiver (GOLD-RTR), which was designed,
developed and built at the ICE (IEEC-CSIC). The problem that we faced could be
stated thus: we have a system which produces 12.8 Mb/s in a sustained manner,
and we need to reduce this rate by three orders of magnitude by applying suitable
integration algorithms, to be discussed later.
The work towards my PhD has focused on one broad subject and applied this to
the actual hardware design platform in order to study and address it. The subject was
parallelism provision for the GNSS-R post-processing system, with special focus on
the integration algorithms. The subject of parallelism provision is considered a multilayer
problem, the most discussed issues are related to the task-level and memorylevel
design.
The Symmetric Multi-Leon3 On Linux (SMLOL) platform, was developed to address
the timing issues for the GNSS-R application. This subject was the parallelism
provision for the task-level system, with special focus on the conventional Symmetric
MultiProcessing (SMP) scheme.
As a multi-task problem, we used to assess the computational load, system
performance and infer the system bottlenecks. However the unbalanced workload
in the hardware design (among processors, cache, memory and bus) can not be
fundamentally resolved through software methodology.
The Heterogeneous Transmission and Parallel Computing Platform (HTPCP) was
later developed in order to balance the transmission and computing workload. This
subject was the parallelism provision for the memory-level system. According to the simulations results arrived at by MPARM emulator, we built and optimized the
memory hierarchy system, in order to remove the bus busy ratio and memory access
time between cache and main memory.
Moreover, dealing with the bus congestion issue, we implemented two types of
element: Transmission Elements (TEs) and Processing Elements (PEs), as well as
several interface designs: Massage Passing Interface (MPI) and Fast Simplex Link
(FSL) in HTPCP.
The intended solution was to design, build and test a system with capacity to
reduce the data flow three orders of magnitude by performing autonomous postprocessing
algorithms.
|
183 |
Cloud screening algorithm for MERIS and CHRIS multispectral sensors.Gómez Chova, Luis 14 November 2008 (has links)
Earth Observation systems monitor our Planet by measuring, at different wavelengths, the electromagnetic radiation that is reflected by the surface, crosses the atmosphere, and reaches the sensor at the satellite platform. In this process, clouds are one of the most important components of the Earth's atmosphere affecting the quality of the measured electromagnetic signal and, consequently, the properties retrieved from these signals. This Thesis faces the challenging problem of cloud screening in multispectral and hyperspectral images acquired by space-borne sensors working in the visible and near-infrared range of the electromagnetic spectrum. The main objective is to provide new operational cloud screening tools for the derivation of cloud location maps from these sensors' data. Moreover, the method must provide cloud abundance maps --instead of a binary classification-- to better describe clouds (abundance, type, height, subpixel coverage), thus allowing the retrieval of surface biophysical parameters from satellite data acquired over land and ocean. In this context, this Thesis is intended to support the growing interest of the scientific community in two multispectral sensors on board two satellites of the European Space Agency (ESA). The first one is the MEdium Resolution Imaging Spectrometer (MERIS), placed on board the biggest environmental satellite ever launched, ENVISAT. The second one is the Compact High Resolution Imaging Spectrometer (CHRIS) hyperspectral instrument, mounted on board the technology demonstration mission PROBA (Project for On-Board Autonomy). The proposed cloud screening algorithm takes advantage of the high spectral and radiometric resolution of MERIS, and of the high number of spectral bands of CHRIS, as well as the specific location of some bands (e.g., oxygen and water vapor absorption bands) to increase the cloud detection accuracy. To attain this objective, advanced pattern recognition and machine learning techniques to detect clouds are specifically developed in the frame of this Thesis. First, a feature extraction based on meaningful physical facts is carried out in order to provide informative inputs to the algorithms. Then, the cloud screening algorithm is conceived trying to make use of the wealth of unlabeled samples in Earth Observation images, and thus unsupervised and semi-supervised learning methods are explored. Results show that applying unsupervised clustering methods over the whole image allows us to take advantage of the wealth of information and the high degree of spatial and spectral correlation of the image pixels, while semi-supervised learning methods offer the opportunity of exploiting also the available labeled samples. / Los sistemas de observación de la Tierra observan nuestro planeta midiendo, en diferentes longitudes de onda, la radiación electromagnética que es reflejada por la superficie, atraviesa la atmósfera, y llega al sensor en el satélite. En este proceso, las nubes son uno de los componentes más importantes ya que afectan a la señal electromagnética medida. Esta Tesis aborda el problema de la detección de nubes en imágenes multiespectrales e hiperespectrales adquiridas por sensores de satélite que trabajan en el rango visible e infrarrojo cercano del espectro electromagnético. El objetivo principal es desarrollar herramientas operativas que proporcionen mapas con la ubicación de las nubes a partir de los datos de satélite adquiridos. Además, el método debe proporcionar mapas de la abundancia de nubes (en lugar de una clasificación binaria) para describir mejor las nubes (abundancia, tipo, altura, cobertura subpixel). En este contexto, esta Tesis analiza dos sensores multiespectrales a bordo de dos satélites de la Agencia Espacial Europea (ESA). El primero de ellos es el MEdium Resolution Imaging Spectrometer (MERIS), a bordo del satélite medioambiental Envisat. El segundo es el instrumento hiperespectral Compact High Resolution Imaging Spectrometer (CHRIS), a bordo del satélite de demostración tecnológica PROBA. El algoritmo de detección de nubes propuesto aprovecha la alta resolución espectral y radiométrica de MERIS, y el número de bandas espectrales de CHRIS, así como la ubicación específica de algunas bandas (absorción del oxígeno y vapor de agua) para aumentar la precisión de la detección de las nubes. Para alcanzar este objetivo, técnicas avanzadas de reconocimiento de patrones y aprendizaje máquina han sido específicamente desarrolladas en el marco de esta. En primer lugar, se lleva a cabo la extracción de características basadas en fundamentos físicos con el fin de proporcionar información relevante a los algoritmos empleados. Después, el algoritmo de detección de nubes se ha concebido tratando de hacer uso de la riqueza de las muestras sin etiquetar de las imágenes, por lo que se exploran métodos de aprendizaje no supervisados y semisupervisados. Los resultados muestran que los algoritmos de agrupamientos no supervisados sobre la imagen completa nos permite aprovechar la riqueza de la información y el alto grado de correlación espacial y espectral de los píxeles de la imagen, mientras que los métodos de aprendizaje semisupervisado ofrecen también la oportunidad de explotar las muestras etiquetadas disponibles.
|
184 |
Design and Control of an Electric Energy Conditioning System for a PEM Type Fuel CellMalo Barragán, Shane Leonardo 02 December 2009 (has links)
Isolated electric energy generation systems are often needed to supply electric loads where the electrical network is not available. This could be caused due to geographic isolation, the necessity of load mobility, demanded values of voltage and current that are not compatible with the local networks, etc. This makes the design and construction of stand-alone energy generation systems a must.Modern designs are being pushed towards cleaner technologies. The experience has shown that the usual methods employed to produce electrical energy are not sustainable, especially because of environmental concerns. Usual stand-alone energy generation systems employ batteries and fuel engines. Batteries offer a cheap mean to feed the generation system but need rigorous maintenance routines, the substances used in their construction are strong pollutants, offer relatively low durability and the ratio charge time/discharge time is too high. Fuel engines extract their energy from petroleum based fuels, and as its well known, pollute their surrounding environment in several ways producing smoke, noise and heat.Polymer electrolyte membrane type fuel cells are among the new technologies that are being considered as a good alternative to the traditional power sources used for stand-alone energy generation systems.AIthough the basic principles of operation of the fuel cells are known since 1839, this is a technology that is far from being mature. More work needs to be done in order to make of the fuel cells systems with, high reliability, with maximum efficiency, and capable of providing electrical energy with quality comparable to the quality achieved using usual methods.The problems when working with fuel cells can be split in two big groups of interest, the first, being the handling and control of the electrochemical variables, and the second, the handling and control of the electrical variables taking care of the limits imposed by the dynamics of the fuel cell unit. This work deals with the second group of concerns, looking at the fuel cell as a black-box dc power supply with certain current/voltage characteristics. The energy provided by the fuel cells needs to be conditioned to the levels and characteristics required by the loads to be fed. In Europe, for single-phase ac loads, the specifications are a sinusoidal output voltage with 230 V ac rms and a frequency of 50 Hz. This work presents the the analysis, design, construction, and control of the electric energy conditioning system for a polymer eIectrolyte membrane type fuel cell to act as an stand-alone dc-ac inverter to feed linear or nonlinear loads with big variations. / Los sistemas de generación de energía eléctrica "en isla" son necesarios en muchas ocasiones para alimentar cargas donde la red eléctrica no está disponible. Esto puede deberse a diversos factores como: aislamiento geográfico, necesidad de movilidad de la carga, requerimientos de corriente y voltaje que no son compatibles con las redes locales, etc. Todas estas razones hacen del diseño y construcción de sistemas autónomos de generación de energía una necesidad.En la actualidad, los diseños de este tipo de dispositivos están tendiendo hacia tecnologías más limpias.La experiencia ha enseñado que los métodos habituales para producir energía eléctrica no son los más apropiados, especialmente por motivos medioambientales. Los sistemas autónomos de generación de energía eléctrica típicos utilizan baterías y máquinas de combustión. Las baterías ofrecen una fuente barata para alimentar el sistema de generación de energía eléctrica, pero necesitan de rigurosas rutinas de mantenimiento, algunas de las sustancias utilizadas en su construcción son altamente contaminantes, ofrecen una relativamente baja durabilidad y la razón tiempo de carga/tiempo de descarga es grande.Por otro lado, las máquinas de combustión extraen la energía de combustibles a base de petróleo, como es bien conocido, contaminan el entorno produciendo humo, ruido y calor.Las pilas de combustible de membrana de electrolito polimérico están entre las nuevas tecnologías que se consideran como una buena alternativa a las fuentes que se utilizan usualmente para alimenta sistemas autónomos de generación de energía. Aunque los principios básicos de operación de las pilas de combustible son conocidos desde 1839, esta es una tecnología que está aún lejos de pode considerarse madura. Aún es necesario realizar más esfuerzos con el objetivo de hacer de las pilas de combustible fuentes de energía de alta confiabilidad, de máxima eficiencia y capaces de proveer energía con niveles de calidad comparables a los alcanzados al utilizar los métodos tradicionales.La problemática que se presenta al trabajar con pilas de combustible puede ser dividida en dos grandes grupos de interés, el primero, sería el control de las variables electroquímicas, y el segundo, el manejo control de las variables eléctricas tomando en cuenta los límites impuestos por la dinámica de la pila de combustible. Éste trabajo trata con el segundo, viendo la pila de combustible como una "caja negra" que constituye una fuente de potencia de corriente continua con ciertas características particulares de voltaje/corriente. La energía provista por la pila de combustible debe ser acondicionada a los niveles características requeridas por las cargas a ser alimentadas. En Europa, para sistemas de monofásico de corriente alterna, las especificaciones son un voltaje sinusoidal con 230 V efectivos y una frecuencia de 50 Hz. Éste trabajo presenta el análisis, diseño, construcción y control del sistema de acondicionamiento de energía eléctrica para una pila de combustible de membrana de electrolito polimérico, que actúa como un sistema autónomo de inversión de corriente continua-corriente alterna para alimentar cargas lineales o no lineales que pueden experimentar grandes variaciones.
|
185 |
Soundings of the ionospheric HF radio link between Antarctica and SpainAds, Ahmed Gamal Ahmed Mahmoud 12 November 2013 (has links)
Aquest treball ha estat realitzat sota el context del projecte Antàrtic del Grup d’Investigació en Electromagnetisme i Comunicacions de La Salle (Universitat Ramon Llull). L’objectiu d’aquest projecte és l’estudi del canal ionosfèric com a canal de comunicacions digitals i el disseny de modulacions avançades adaptades. Aquest treball de tesi es centra en el sondeig del canal HF al llarg de tres campanyes consecutives des de 2009 fins 2012 entre la Base Antártica Española (BAE) i l’Observatorio de l’Ebre (OE). En primer lloc, a partir del sondeig en banda estreta s’han obtingut la disponibilitat i la freqüència de màxima disponibilitat (FLA) entre la BAE i OE en el període 2009-2012. En segon lloc, el sondeig en banda ampla ens ha permès estimar la relació senyal-soroll en banda ampla, la dispersió temporal (composite multipath spread), la dispersió freqüencial (composite Doppler spread and Doppler frequency shift) i el temps de propagació. En tercer lloc, s’ha investigat la variació intra-diària i inter-diària d’alguns paràmetres (Densitat total d’electrons, freqüències crítiques i la MUF3000) que han estat mesurades en sondeig vertical en quatre estacions situades al llarg del camí entre la BAE i OE. Finalment, s’ha estudiat la correlació entre la FLA de l’enllaç oblic i la MUF300 de les estacions intermèdies properes als punts de reflexió. / Este trabajo ha sido realizado en el contexto del proyecto Antártico del Grupo de Investigación en Electromagnetismo y Comunicaciones de La Salle (Universidad Ramon Llull). El objetivo de este proyecto es el estudio del canal ionosférico como canal de comunicaciones digitales además del diseño de modulaciones avanzadas adaptadas. Este trabajo se centra en el sondeo del canal HF a lo largo de tres campañas consecutivas desde 2009 hasta 2012 entre la Base Antártica Española (BAE) y el Observatorio del Ebro (OE). Primero, a partir del sondeo en banda estrecha se han obtenido la disponibilidad y la frecuencia de máxima disponibilidad (FLA) entre la BAE y OE en el periodo 2009-2012. En segundo lugar, el sondeo en banda ancha nos ha permitido estimar la relación señal-ruido en banda ancha, la dispersión temporal (composite multipath spread), la dispersión frecuencial (composite Doppler spread and Doppler frequency shift) y el tiempo de propagación. En tercer lugar, se ha investigado la variación intra-diaria y la inter-diaria de varios parámetros (Densidad total de electrones, frecuencias críticas y la MUF3000) que han sido medidas en sondeo vertical en cuatro estaciones situadas a lo largo del camino entre la BAE y OE.Finalmente, se ha estudiado la correlación entre la FLA del enlace oblicuo y la MUF300 de las estaciones intermedias cercanas a los puntos de reflexión. / This work has been done in the context of the Antarctic Project of the Research Group in Electromagnetism and Communications of La Salle (Ramon Llull University). The aim of this project is to study the ionospheric channel as a digital communications channel as well as to design specific advanced modulations specially adapted to it. This work is devoted to the HF channel sounding throughout three consecutive surveys from 2009 to 2012 between the Spanish Antarctic Station (SAS) and the Ebro Observatory (OE). First, the availability and the Frequency of Largest Availability (FLA) of the SAS-OE link have been obtained from the narrowband sounding technique from 2009 to 2012. Second, wideband sounding of the SAS-OE link has been done to estimate the wideband Signal to Noise Ratio (SNR), the time dispersion (composite multipath spread), frequency dispersion (composite Doppler spread and Doppler frequency shift), and the propagation time. Third, there has been an investigation about the day-to-day and inter-day variations of various parameters (e.g., Total Electron Density, critical frequencies, and Maximum Usable Frequency for ground distance MUF(3000)) that have been measured at four Vertical Incidence Sounding (VIS) stations located over the SAS-OE link path throughout three consecutive surveys (from 2009 to 2012). Finally, the correlation between the FLA of the SAS-OE ionospheric link and the MUF(3000) obtained from VIS stations located close to the reflection points of the same link has been studied.
|
186 |
Addressing practical challenges for anomaly detection in backbone networksParedes Oliva, Ignasi 29 July 2013 (has links)
Network monitoring has always been a topic of foremost importance for both network operators and researchers for multiple reasons ranging from anomaly detection to tra c classi cation or capacity planning. Nowadays, as networks become more and more complex, tra c increases and security threats reproduce, achieving a deeper understanding of what is happening in the network has become an essential necessity. In particular, due to the considerable growth of cybercrime, research on the eld of anomaly detection has drawn signi cant attention in recent years and tons of proposals have been made. All the same, when it comes to deploying solutions in real environments, some of them fail to meet some crucial requirements. Taking this into account, this thesis focuses on lling this gap between the research
and the non-research world. Prior to the start of this work, we identify several problems. First, there is a clear lack of detailed and updated information on the most common anomalies and their characteristics. Second, unawareness of sampled data is still common although the performance of anomaly detection algorithms is severely a ected. Third, operators currently need to invest many work-hours to manually inspect and also classify detected anomalies to act accordingly and take the appropriate mitigation measures. This is further exacerbated due to the high number of false positives and false negatives and because anomaly detection systems are often perceived as extremely complex black boxes. Analysing an issue is essential to fully comprehend the problem space and to be able to tackle it properly. Accordingly, the rst block of this thesis seeks to obtain detailed and updated real-world information on the most frequent anomalies occurring in backbone networks. It rst reports on the performance of di erent commercial systems for anomaly detection and analyses the types of network nomalies detected. Afterwards, it focuses on further investigating the characteristics of the anomalies found in a backbone network using one of the tools for more than half a year. Among other results, this block con rms the need of applying sampling in an operational environment as well as the unacceptably high number of false positives and false negatives still reported by current commercial tools. On the whole, the presence of ampling in large networks for monitoring purposes has become almost mandatory and, therefore, all anomaly detection algorithms that do not take that into account might report incorrect results.
In the second block of this thesis, the dramatic impact of sampling on the performance of well-known anomaly detection techniques is analysed and con rmed. However, we show that the results change signi cantly depending on the sampling technique used and also on
the common metric selected to perform the comparison. In particular, we show that, Packet Sampling outperforms Flow Sampling unlike previously reported. Furthermore, we observe that Selective Sampling (SES), a sampling technique that focuses on small ows, obtains much better results than traditional sampling techniques for scan detection. Consequently, we propose Online Selective Sampling, a sampling technique that obtains the same good performance for scan detection than SES but works on a per-packet basis instead of keeping all
ows in memory. We validate and evaluate our proposal and show that it can operate online and uses much less resources than SES.
Although the literature is plenty of techniques for detecting anomalous events, research on anomaly classi cation and extraction (e.g., to further investigate what happened or to share evidence with third parties involved) is rather marginal. This makes it harder for network operators to analise reported anomalies because they depend solely on their experience to do the job. Furthermore, this task is an extremely
time-consuming and error-prone process.
The third block of this thesis targets this issue and brings it together with the knowledge acquired in the previous blocks. In particular, it presents a system for automatic anomaly detection, extraction and classi cation with high accuracy and very low false positives. We deploy the system in an operational environment and show its usefulness in practice.
The fourth and last block of this thesis presents a generalisation of our system that focuses on analysing all the tra c, not only network anomalies. This new system seeks to further help network operators by summarising the most signi cant tra c patterns in their network. In particular, we generalise our system to deal with big network tra c data. In particular, it deals with src/dst IPs, src/dst ports, protocol, src/dst
Autonomous Systems, layer 7 application and src/dst geolocation. We rst deploy a prototype in the European backbone network of G EANT and show that it can process large amounts of data quickly and build highly informative and compact reports that are very useful to help comprehending what is happening in the network. Second, we deploy it in a completely di erent scenario and show how it can also be successfully used in a real-world use case where we analyse the behaviour of highly distributed devices related with a critical infrastructure sector. / La monitoritzaci o de xarxa sempre ha estat un tema de gran import ancia per operadors de xarxa i investigadors per m ultiples raons que van des de la detecci o d'anomalies fins a la classi caci o d'aplicacions. Avui en dia, a mesura que les xarxes es tornen m es i m es complexes, augmenta el tr ansit de dades i les amenaces de seguretat segueixen creixent, aconseguir una comprensi o m es profunda del que passa a la xarxa s'ha convertit en una necessitat essencial.
Concretament, degut al considerable increment del ciberactivisme, la investigaci o en el camp de la detecci o d'anomalies ha crescut i en els darrers anys s'han fet moltes i diverses propostes. Tot i aix o, quan s'intenten desplegar aquestes solucions en entorns reals, algunes d'elles no compleixen alguns requisits fonamentals. Tenint aix o en compte, aquesta tesi se centra a omplir aquest buit entre la recerca i el m on real. Abans d'iniciar aquest treball es van identi car diversos problemes. En primer lloc, hi ha una clara manca d'informaci o detallada i actualitzada sobre les anomalies m es comuns i les seves caracter stiques. En segona inst ancia, no tenir en compte la possibilitat de treballar amb nom es part de les dades (mostreig de tr ansit) continua sent bastant est es tot i el sever efecte en el rendiment dels algorismes de detecci o d'anomalies. En tercer lloc, els operadors de xarxa actualment han d'invertir moltes hores de feina per classi car i inspeccionar manualment les anomalies detectades per actuar en conseqüencia i prendre les mesures apropiades de mitigaci o. Aquesta situaci o es veu agreujada per l'alt nombre de falsos positius i falsos negatius i perqu e els sistemes de detecci o d'anomalies s on sovint percebuts com caixes negres extremadament complexes.
Analitzar un tema es essencial per comprendre plenament l'espai del problema i per poder-hi fer front de forma adequada. Per tant, el primer bloc d'aquesta tesi pret en proporcionar informaci o detallada i actualitzada del m on real sobre les anomalies m es freqüents en una xarxa troncal.
Primer es comparen tres eines comercials per a la detecci o d'anomalies i se n'estudien els seus punts forts i febles, aix com els tipus
d'anomalies de xarxa detectats. Posteriorment, s'investiguen les caracter stiques de les anomalies que es troben en la mateixa xarxa troncal utilitzant una de les eines durant m es de mig any. Entre d'altres resultats, aquest bloc con rma la necessitat de l'aplicaci o de mostreig de tr ansit en un entorn operacional, aix com el nombre inacceptablement elevat de falsos positius i falsos negatius en eines comercials actuals.
En general, el mostreig de tr ansit de dades de xarxa ( es a dir, treballar nom es amb una part de les dades) en grans xarxes troncals s'ha convertit en gaireb e obligatori i, per tant, tots els algorismes de detecci o d'anomalies que no ho tenen en compte poden veure seriosament afectats els seus resultats. El segon bloc d'aquesta tesi analitza i confi rma el dram atic impacte de mostreig en el rendiment de t ecniques de detecci o d'anomalies plenament acceptades a l'estat de l'art. No obstant, es mostra que els resultats canvien signi cativament depenent de la
t ecnica de mostreig utilitzada i tamb e en funci o de la m etrica usada per a fer la comparativa. Contr ariament als resultats reportats en estudis previs, es mostra que Packet Sampling supera Flow Sampling. A m es, a m es, s'observa que Selective Sampling (SES), una t ecnica de mostreig que se centra en mostrejar fluxes petits, obt e resultats molt millors per a la detecci o d'escanejos que no pas les t ecniques tradicionals de mostreig. En conseqü encia, proposem Online Selective Sampling, una t ecnica de mostreig que obt e el mateix bon rendiment per a la detecci o d'escanejos que SES, per o treballa paquet per paquet enlloc de mantenir tots els fluxes a mem oria. Despr es de validar i evaluar la nostra proposta, demostrem que es capa c de treballar online i utilitza molts menys recursos que SES. Tot i la gran quantitat de tècniques proposades a la literatura per a la detecci o d'esdeveniments an omals, la investigaci o per a la seva posterior classi caci o i extracci o
(p.ex., per investigar m es a fons el que va passar o per compartir l'evid encia amb tercers involucrats) es m es aviat marginal. Aix o fa que sigui m es dif cil per als operadors de xarxa analalitzar les anomalies reportades, ja que depenen unicament de la seva experi encia per fer la feina. A m es a m es, aquesta tasca es un proc es extremadament lent i propens a errors. El tercer bloc d'aquesta tesi se centra en aquest tema tenint tamb e en compte els coneixements adquirits en els blocs anteriors. Concretament, presentem un sistema per a la detecci o extracci o i classi caci o autom atica d'anomalies amb una alta precisi o i molt pocs falsos positius. Adicionalment, despleguem el sistema en un entorn operatiu i demostrem la seva utilitat pr actica. El quart i ultim bloc d'aquesta tesi presenta una generalitzaci o del nostre sistema que se centra en l'an alisi de tot el tr ansit, no nom es en les anomalies. Aquest nou sistema pret en ajudar m es als operadors ja que resumeix els patrons de tr ansit m es importants de la seva xarxa. En particular, es generalitza el sistema per fer front al "big data" (una gran quantitat de dades). En particular, el sistema tracta IPs origen i dest i, ports origen i destí , protocol, Sistemes Aut onoms origen i dest , aplicaci o que ha generat el tr ansit i fi nalment, dades de geolocalitzaci o (tamb e per origen i dest ). Primer, despleguem un prototip a la xarxa europea per a la recerca i la investigaci o (G EANT) i demostrem que el sistema pot processar grans quantitats de dades r apidament aix com crear informes altament informatius i compactes que s on de gran utilitat per ajudar a comprendre el que est a succeint a la xarxa. En segon lloc, despleguem la nostra eina en un escenari completament diferent i mostrem com tamb e pot ser utilitzat amb exit en un cas d' us en el m on real en el qual s'analitza el comportament de dispositius altament distribuïts.
|
187 |
Wireless multimedia sensor networks, security and key managementAlmalkawi, Islam 23 July 2013 (has links)
Wireless Multimedia Sensor Networks (WMSNs) have emerged and shifted the focus from the typical scalar wireless sensor networks to networks with multimedia devices that are capable to retrieve video, audio, images, as well as scalar sensor data. WMSNs are able to deliver multimedia content due to the availability of inexpensive CMOS cameras and microphones coupled with the significant progress in distributed signal processing and multimedia source coding techniques.
These mentioned characteristics, challenges, and requirements of designing WMSNs open many research issues and future research directions to develop protocols, algorithms, architectures, devices, and testbeds to maximize the network lifetime while satisfying the quality of service requirements of the various applications. In this thesis dissertation, we outline the design challenges of WMSNs and we give a comprehensive discussion of the proposed architectures and protocols for the different layers of the communication protocol stack for WMSNs along with their open research issues. Also, we conduct a comparison among the existing WMSN hardware and testbeds based on their specifications and features along with complete classification based on their functionalities and capabilities. In addition, we introduce our complete classification for content security and contextual privacy in WSNs. Our focus in this field, after conducting a complete survey in WMSNs and event privacy in sensor networks, and earning the necessary knowledge of programming sensor motes such as Micaz and Stargate and running simulation using NS2, is to design suitable protocols meet the challenging requirements of WMSNs targeting especially the routing and MAC layers, secure the wirelessly exchange of data against external attacks using proper security algorithms: key management and secure routing, defend the network from internal attacks by using a light-weight intrusion detection technique, protect the contextual information from being leaked to unauthorized parties by adapting an event unobservability scheme, and evaluate the performance efficiency and energy consumption of employing the security algorithms over WMSNs.
|
188 |
Variabilitat depenent del temps per BTI i portadors calents en MOSFETS ultraescalatsAyala Cintas, Núria 30 September 2013 (has links)
Durant el treball de tesi s’ha permès ampliar una línia d’investigació al grup de recerca REDEC (Reliability of Electron Device and Circuits) del Departament d’Enginyeria Electrònica de la Universitat Autònoma de Barcelona (UAB), dedicada a la fiabilitat del transistors MOSFET nanoelectrònics. En particular, en l’estudi de la degradació per Channel Hot-Carrier (CHC), Bias Temperature Instability (BTI). A més, també s’ha estudiat la variabilitat relacionada amb el procés de fabricació, així com els efectes de la degradació i variabilitat dels transistors en el funcionament de circuits electrònics.
Dintre d’aquest camp, aquesta tesi s’ha centrat en l’estudi del mecanisme de degradació BTI del material de porta dels MOSFETs. En aquest cas s’ha analitzat la degradació de transistors MOSFET per CHC i BTI, estressos inhomogenis i homogenis, respectivament. Una de les característiques exclusives d’aquest mecanisme ha estat la dependència de la degradació induïda amb el temps de relaxació (temps que transcorre des que l’estrès s’atura fins que es mesura els seus efectes), realitzada per configuracions experimentals molt específiques i ajustos de la instrumentació utilitzada. Per aquest motiu, durant aquest treball s’ha implementat i optimitzat el set-up experimental necessari per a l’estrès i la caracterització dels efectes dels estressos a nivell de dispositius, tenint en compte el temps de relaxació. Aquest set-up ha estat emprat per a fer un estudi exhaustiu d’aquest mecanisme de degradació, analitzant la dependència de la variació de la tensió llindar amb els paràmetres d’estrès tals com la tensió, temperatura, temps d’estrès i temps de relaxació. A partir dels resultats obtinguts, s’ha proposat una llei empírica que permet predir el valor de la tensió llindar a les tensions a les condicions d’operació dels dispositius dins de circuits electrònics, com inversors i cel·les de memòria, amb l’objectiu de incloure-les en simuladors de circuits.
La metodologia de caracterització de dispositius més simulació de circuits adoptada en aquest treball obre nova via per anàlisi de la fiabilitat de dispositius i circuits, extrapolable a altres tecnologies. / This thesis was carried out within one of the several lines of investigation of the REDEC (Reliability of Electron Device and Circuits) from Department of Electronic Engineering, located at the Universitat Autònoma de Barcelona (UAB), which marks its research activities. In particular, the influence of degradation mechanisms, Channel Hot-Carrier (CHC) and Bias Temperature Instability (BTI), was studied. Furthermore, the device level degradation with respect to the fabrication process and its influence on the electronic circuit performance was also investigated.
Within this field, this thesis has been focused on the study of these degradation mechanisms with respect to the gate material. In the case, of CHC and BTI, an inhomogeneous and homogeneous stress, respectively, is analyzed. One of the exclusive features of this mechanism has been the dependence of the induced degradation as a function of the relaxation time (period of time between stop of the stress and the moment of measurement), realized by specific configurations and adjustments of the instrumentation used. For this reason, during this work the experimental set-up has been implemented and optimized for the device-level stress and characterization. This set-up has been used to make a thorough study of this degradation mechanism, analyzing the dependence of the variation of the threshold voltage based on different stress parameters, such as voltage, temperature, stress time and relaxation time. Based on the obtained results an empirical law has been proposed, which can be used to predict the threshold voltage of operating devices forming part of composite elements, such as inverters and memory cells, in order to integrate it into circuit simulations.
The device characterization methodology and simulations used in this thesis opens a new way in order to analyze the devices and circuit reliability, extendable to other technologies.
|
189 |
Antenas Microstrip con Polarización Circular para Sistemas de Posicionamiento por Satélite y aplicaciones RFIDRamírez Acedo, Mónica 30 September 2013 (has links)
El rápido desarrollo del sector de las comunicaciones demanda continuamente dispositivos de radio frecuencia con nuevas y mejores prestaciones.
Dentro del ámbito de las antenas, las atractivas propiedades que poseen las antenas microstrip con polarización circular las hacen estar presentes en numerosos sistemas de comunicación inalámbricos como son el radar, la navegación por satélite, la identificación por radiofrecuencia (RFID) o los sistemas móviles.
En la literatura, las antenas microstrip pueden clasificarse en dos en dos grupos diferentes en función del método utilizado para generar polarización circular en ellas: el primer método se basa en una alimentación dual, las cuales precisan de un dispositivo externo, mientras que el segundo método se basa en una alimentación única y en la perturbación de la simetría de la propia estructura.
El objetivo principal de esta Tesis es proponer nuevos diseños de antenas microstrip con polarización circular, utilizando ambos métodos, para dos aplicaciones concretas: sistemas de navegación (GPS y Galileo) y para aplicaciones RFID en la banda UHF. Debido a las distintas prestaciones que precisan las antenas en función de su aplicación, el diseño de las nuevas estructuras se aborda en dos capítulos distintos: El objetivo de los diseños destinados a
aplicaciones satelitáles es obtener estructuras robustas, con prestaciones precisas y fiables. Estos diseños se basan en la primera metodología y se muestran en el capítulo 3, mientras que
los diseños de antenas para RFID se centran en el uso de estructuras simples y compactas, las cuales se explican en el capítulo 4, basándose en la segunda metodología. / The rapid development of the communications continuously demands RF devices with new and better performance.
In the antennas field, microstrip antennas with circular polarization have attractive characteristics that make them to be present in many wireless communication systems such as radar, satellite navigation, radio frecuency identification (RFID) and mobile systems.
In the literature, microstrip antennas can be classified into two different groups depending on the method used to generate the circular polarization: First methodology is based on a dual feed, which need an external device, whereas the second methodology is based on a single feed and the perturbation of the structure symmetry.
The main objective of this Thesis is to propose new designs of circularly polarized microstrip antennas, using both methodologies, for two specific applications: Navigation systems
(GPS and Galileo), and RFID applications in the UHF band. Due to the different performance that are required for each application, the designs for each application are shown in different chapters:
The goal of the designs focused on navigation systems is to obtain robust structures with accurate and reliable performance. These designs are based on the first methodology and are shown in chapter 3, while the designs for RFID are focused on the use of simple and compact structures, and they are explained in the chapter 4 and based on the second methodology.
|
190 |
Preemptive Strategies for Data Transmission through JPEG2000 Interactiive ProtocolMonteagudo Pereira, José Lino 30 September 2013 (has links)
Hoy en día, con el desarrollo de las tecnologías de la información y las comunicaciones, las imágenes son ampliamente utilizadas en muchos ámbitos de nuestra vida. Cuando se comparten o transmiten imágenes, el consumo de ancho de banda de la red es importante, especialmente para imágenes de gran resolución. En un escenario cliente-servidor, el consumo de ancho de banda aumenta con el número de imágenes solicitadas por el usuario y con el número de usuarios. Por lo tanto, se necesitan estrategias de transmisión eficientes para reducir los costes de transmisión y los tiempos de respuesta de los clientes. Se puede alcanzar una mayor eficiencia a través de la compresión y también mediante el uso de un protocolo de transmisión adecuado. JPEG2000 es un estándar de compresión de imágenes que está a la vanguardia y que destaca por su rendimiento en la codificación de imágenes, características avanzadas y por sus potentes capacidades para la transmisión interactiva de imágenes.
El protocolo JPEG2000 Interactive Protocol (JPIP) destaca porque es capaz de lograr una navegación fluida y porque minimiza la información intercambiada entre el cliente y el servidor. Además, la eficiencia de JPIP puede mejorarse mediante: 1) los parámetros de codificación apropiados; 2) la reorganización de paquetes en el servidor; 3) el prefetching en los clientes; y 4) el despliegue de servidores proxy en la red. Las estrategias de prefetching mejoran la capacidad de respuesta, sin embargo, cuando los clientes se encuentran en una red de área local, no se aprovechan las redundancias entre los clientes y la conexión a Internet puede llegar a saturarse.
Este trabajo propone el despliegue de mecanismos de prefetching en los proxy JPIP para mejorar el rendimiento global del sistema. El proxy JPIP aprovecha los instantes de inactividad de la conexión a Internet para precargar datos y anticipar posibles peticiones futuras de los clientes. Dado que el prefetching se realiza en el proxy, se tienen en cuenta las redundancias existentes entre todos los clientes, lo que minimiza la carga de la red. Tres son las estrategias de prefetching que se estudian en esta tesis para reducir la latencia. La primera estrategia considera probabilidades equiprobables para los futuros movimientos de los clientes. La segunda estrategia utiliza un modelo basado en el comportamiento de navegación del usuario. La tercera estrategia predice las regiones de las imágenes que tienen una mayor probabilidad de ser solicitadas basándose en el contenido semántico de la imagen. Todas estas estrategias están integradas en nuestra implementación de código libre de JPIP llamada CADI, que es también una contribución de esta tesis. / Nowadays, with the advent of information technology and communications, images are widely used in many areas of our life. When sharing or transmitting images, the network bandwidth is a major concern, especially for large resolution images. In a client-server scenario, the bandwidth consumption increases along with the number of images requested by a user and with the number of users. Thus, efficient transmission strategies are needed to reduce the transmission cost and the client’s response time. Efficiency can be achieved through compression and by using a suitable transmission protocol. JPEG2000 is a state-of-the-art image compression standard that excels for its coding performance, advanced features, and for its powerful interactive transmission capabilities.
The JPEG2000 Interactive Protocol (JPIP) is key to achieve fluent image browsing and to
minimize the information exchanged in a client-server scenario. Furthermore, the efficienty of JPIP can be improved with: 1) appropriate coding parameters; 2) packet re-sequencing at the server; 3) prefetching at clients; and 4) proxy servers over the network. Prefetching strategies improve the responsiveness, but when clients are in a local area network, redundancies among clients are commonly not exploited and the Internet connection may become saturated.
This work proposes the deployment of prefetching mechanisms in JPIP proxy servers to enhance the overall system performance. The proposed JPIP proxy server takes advantage of idle times in the Internet connection to prefetch data that anticipate potential future requests from clients. Since the prefetching is performed in the proxy, redundancies among all the clients are considered, minimizing the network load. Three strategies are put forward to reduce the latency. The first strategy considers equal probability for next movements. The second strategy uses a user-navigation model. The third strategy predicts the regions of the images that are more likely to be requested employing a semantic map. All these strategies are implemented in our open source implementation of JPIP named CADI, which is also a contribution of this thesis.
|
Page generated in 0.1548 seconds