• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 77
  • 32
  • 1
  • Tagged with
  • 371
  • 368
  • 367
  • 364
  • 364
  • 65
  • 56
  • 41
  • 40
  • 40
  • 36
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Energy-efficient wireless communication schemes and real-time middleware for machine-to-machine networks

Predojev, Tatiana 06 October 2014 (has links)
Esta tesis estudia sistemas Machine-to-Machine (M2M) en los que se ejecutan tareas de manera autónoma sin, o con mínima intervención humana. Los sistemas M2M están formados por dispositivos desplegados en un entorno que recolectan información relacionada con una tarea y la envían a aplicaciones para su proceso. Las aplicaciones optimizan estas tareas y responden a los dispositivos con comandos de control. Idealmente, después de configurar las políticas de tareas, los humanos son excluidos del lazo de control. Un importante caso de uso en M2M es la automatización de la red eléctrica, también conocido como Smart Grid, que se trata en esta tesis. Muchos escenarios M2M requieren dispositivos de bajo bitrate, bajo coste y que puedan ser fácilmente desplegables y mantenidos. Una solución adecuada son los dispositivos inalámbricos, alimentados por batería y de capacidades limitadas (con reducida potencia de procesado y memoria). Un bajo mantenimiento requiere años de vida, que sólo pueden conseguirse con protocolos de comunicación altamente eficientes energéticamente. En esta tesis nos centramos principalmente en las capas MAC y de enlace (especialmente en esquemas Cooperative Automatic Repeat Request) para mejorar la eficiencia energética de los dispositivos. Proponemos y evaluamos extensiones de Cooperative MAC para varios estándares como IEEE 802.11, IEEE 802.15.4 y sus revisiones MAC. El transmisor radio de los dispositivos puede ponerse en estado de reposo cuando está inactivo, llevando a cortos periodos de activación (duty-cycle) en dispositivos de bajo bitrate, consiguiendo así un ahorro energético considerable. Dado que la capa MAC controla los estados de reposo de los transmisores radio, los esquemas de Duty-Cycle MAC son el pilar de las comunicaciones energéticamente eficientes. Por ello, en esta tesis diseñamos, analizamos y evaluamos esquemas Cooperative and Duty-Cycled ARQ (CDC-ARQ). CDC-ARQ se basa en la (re)transmisión dinámica de paquetes (dynamic packet forwarding) dependiendo del estado del canal inalámbrico. Cuantificamos las ganancias considerando enlaces inalámbricos de baja potencia con modelos realistas, que sufren efectos de apantallamiento (shadowing) desvanecimientos (fading) de canal, y presentamos las condiciones bajo las cuales CDC-ARQ consiguen mejores resultados que las técnicas estándar de forwarding. Finalmente, determinamos estrategias óptimas de selección de enlace y retransmisión para direct, multi-hop y CDC-ARQ forwarding. Los esquemas de comunicación inalámbricos energéticamente eficientes son adecuados, por ejemplo, para automatización de edificios y hogar, contribuyendo a un buen uso de la energía eléctrica en dichos escenarios. Después de considerar el entorno de dispositivos, la tesis se centra en las aplicaciones, al otro lado de los sistemas M2M. Las aplicaciones típicamente intercambian datos sobre amplias zonas con varios dispositivos remotos. Las técnicas de computación distribuida, estandarizadas e implementadas en plataformas middleware para sistemas M2M, facilitan este intercambio de datos. Los requisitos de comunicación de estas aplicaciones son diversos en términos de latencia, número de actualizaciones, número de dispositivos asociados, etc. Mientras que las soluciones middleware existentes tales como ETSI M2M satisfacen los requisitos de ciertas aplicaciones, dichas soluciones son inadecuadas para los requisitos de latencia de transmisión en tiempo real. Esta tesis propone y analiza modificaciones del ETSI M2M que mejoran el rendimiento en tiempo real. El análisis se ejemplifica con tres aplicaciones Smart Grid, una relacionada con la automatización del hogar y edificios, y las otras dos con la monitorización y control del flujo de potencia de la red eléctrica. / This thesis studies emerging Machine-to-Machine (M2M) systems that execute automated tasks without, or with minimum human intervention. M2M systems consist of devices deployed in the field to collect task-related information and send it to remote applications for processing. The applications optimise the tasks and issue control commands back to the devices. Ideally, after configuring the task policies, humans are excluded from the control loop. A prominent and urgent M2M use case concentrates on the automation of the electric power grid, also known as Smart Grid, that is considered in the thesis. Many M2M scenarios require devices that are low-rate, low-cost and can be easily deployed and maintained. A fitting solution are wireless, battery-powered and resource-constrained devices (with limited processing power and memory). Low-maintenance requires years of lifetime, that can only be achieved with unprecedented energy efficiency of communication protocols. Specifically, we focus on the MAC and link layers in this thesis (especially on the Cooperative Automatic Repeat Request schemes) to improve the energy efficiency of the devices. Cooperative MAC extensions to the various standard technologies such as IEEE 802.11, IEEE 802.15.4 and its MAC amendments are proposed and evaluated. The radio transceiver of a device can be put to sleep state when inactive, yielding very low duty-cycles for low-rate devices, and thus achieving significant energy savings. Since the MAC layer controls the radio transceiver sleep states, duty-cycled MAC schemes are the cornerstone of the energy-efficient communication schemes. To that end, Cooperative and Duty-Cycled ARQ (CDC-ARQ) scheme has been designed, analysed and evaluated in this thesis. CDC-ARQ is based on dynamic packet forwarding depending on the current state of the wireless channel. The benefits are quantified by considering realistic wireless low-power links that experience shadowing and multipath fading channel effects. The conditions under which CDC-ARQ outperforms the standard forwarding techniques are presented. Finally, optimal link selection and retransmission strategies are determined for direct, multi-hop or CDC-ARQ forwarding. The studied energy-efficient wireless schemes are suitable e.g. for home and building automation which can contribute to the efficient use of the electric power in homes and buildings. After considering the device domain, the focus of this thesis turns to the applications at the other end of the M2M system. The applications typically exchange data over wide areas with many remote devices. Distributed computing techniques facilitate this data exchange, standardised and implemented in the middleware platform for M2M systems. The communication requirements of these applications are diverse in terms of data latency, update rate, number of associated devices etc. While the existing middleware solutions such as ETSI M2M fully support communication requirements of some applications, the solution is inadequate when it comes to the real-time latency constraint. Some suitable upgrades that improve the real-time performance of data exchange in ETSI M2M middleware are analysed in the thesis. The analysis is exemplified with three Smart Grid applications, one related to the home and building automation and the other two concerned with monitoring and control of the power flow in the electric grid.
152

Self-managed resources in network virtualisation environments

Mijumbi, Rashid 06 November 2014 (has links)
Network virtualisation is a promising technique for dealing with the resistance of the Internet to architectural changes, enabling a novel business model in which infrastructure management is decoupled from service provision. It allows infrastructure providers (InPs) who own substrate networks (SNs) to lease chunks of them out to service providers who then create virtual networks (VNs), which can then be re-leased out or used to provide services to end-users. However, the different VNs should be initialised, in which case virtual links and nodes must be mapped to substrate nodes and paths respectively. One of the challenges in the initialisation of VNs is the requirement of an efficient sharing of SN resources. Since the profitability of InPs depends on how many VNs are able to be allocated simultaneously onto the SN, the success of network virtualisation will depend, in part, on how efficiently VNs utilise physical network resources. This thesis contributes to efficient resource sharing in network virtualisation by dividing the problem into three sub-problems: (1) mapping virtual nodes and links to substrate nodes and paths i.e. virtual network embedding (VNE), (2) dynamic managing of the resources allocated to VNs throughout their lifetime (DRA), and (3) provisioning of backup resources to ensure survivability of the VNs. The constrained VNE problem is NP-Hard. As a result, to simplify the solution, many existing approaches propose heuristics that make assumptions (e.g. a SN with infinite resources), some of which would not apply in practical environments. This thesis proposes an improvement in VNE by proposing a one-shot VNE algorithm which is based on column generation (CG). The CG approach starts by solving a restricted version of the problem, and thereafter refines it to obtain a final solution. The objective of a one-shot mapping is to achieve better resource utilisation, while using CG significantly enhances the solution time complexity. In addition current approaches are static in the sense that after the VNE stage, the resources allocated are not altered for the entire lifetime of the VN. The few proposals that do allow for adjustments in original mappings allocate a fixed amount of node and link resources to VNs throughout their life time. Since network load varies with time due to changing user demands, allocating a fixed amount of resources based on peak load could lead to an inefficient utilisation of overall SN resources, whereby, during periods when some virtual nodes and/or links are lightly loaded, SN resources are still reserved for them, while possibly rejecting new VN requests. The second contribution of this thesis are a set of proposals that ensure that SN resources are efficiently utilised, while at the same making sure that the QoS requirements of VNs are met. For this purpose, we propose self-management algorithms in which the SN uses time-difference machine learning techniques to make autonomous decisions with respect to resource allocation. Finally, while some scientific research has already studied multi-domain VNE, the available approaches to survivable VNs have focused on the single InP environment. Since in the more practical situation a network virtualisation environment will involve multiple InPs, and because an extension of network survivability approaches from the single to multi domain environments is not trivial, this thesis proposes a distributed and dynamic approach to survivability in VNs. This is achieved by using a multi-agent-system that uses a multi-attribute negotiation protocol and a dynamic pricing model forming InPs coalitions supporting SNs resource backups. The ultimate objective is to ensure that virtual network operators maximise profitability by minimising penalties resulting from QoS violations. / La virtualització de xarxes es una tècnica prometedora per afrontar la resistència d'Internet als canvis arquitectònics, que permet un nou model de negoci en el que la gestió de la infraestructura de xarxa es desacobla de la provisió del servei. Això permet als proveïdors de infraestructura (InPs), propietaris de la xarxa física substrat (SN), llogar segments d'aquesta als proveïdors dels serveis, que crearan xarxes virtuals (VNs) que a l'hora poden re-llogar-se o utilitzar-se per donar servei a usuaris finals. No obstant això, les diferents VNs s'han d'inicialitzar assignant els seus nodes i enllaços als del substrat. Un dels reptes d'aquest procés es el requisit de fer un ús eficient dels recursos de la SN. Donat que el benefici d'un InP depèn del nombre de xarxes virtuals que puguin allotjar-se simultàniament en la SN, l'èxit de la virtualització de xarxes depèn en part de quan eficient es l’ús dels recursos de la xarxa física per part de les VNs. Aquesta Tesi contribueix a la millora de l’eficiència en la compartició de recursos en la virtualització de xarxes dividint el problema en tres sots problemes: (1) assignació de nodes i enllaços virtuals a nodes i enllaços del substrat (VNE), (2) gestió dinàmica dels recursos assignats a les VNs al llarg de la seva vida útil (DRA) i (3) aprovisionament de recursos de backup per assegurar la supervivència de les VNs. La naturalesa del problema VNE el fa “NP-Hard". En conseqüència, per simplificar la solució, moltes de les propostes son heurístiques que es basen en hipòtesis (per exemple, SN amb recursos il•limitats) de difícil compliment en escenaris reals. Aquesta Tesi proposa una millora al problema VNE mitjan_cant un algorisme “one-shot VNE" basat en generació de columnes (CG). La solució CG comena resolent una versió restringida del problema, per tot seguit refinar-la i obtenir la solució final. L'objectiu del “one-shot VNE" es aconseguir millorar l’ús dels recursos, mentre que CG redueix significativament la complexitat temporal del procés. D'altre banda, les solucions actuals son estàtiques, ja que els recursos assignats en la fase VNE no es modifiquen durant tot el temps de vida útil de la VN. Les poques propostes que permeten reajustar l’assignació inicial, es basen en una assignació fixe de recursos a les VNs. No obstant això, degut a que la càrrega de la xarxa varia a conseqüència de la demanda canviant dels usuaris, assignar una quantitat fixe de recursos basada en situacions de càrrega màxima esdevé en ineficiència per infrautilització en períodes de baixa demanda, mentre que en tals períodes de demanda baixa, el tenir recursos reservats, pot originar rebutjos de noves VNs. La segona contribució d'aquesta Tesi es un conjunt de propostes que asseguren l’ús eficient dels recursos de la SN, garantint a la vegada els requeriments de qualitat de servei de totes les VNs. Amb aquesta finalitat es proposen algorismes d’autogestió en els que la SN utilitza tècniques d'aprenentatge de màquines per a materialitzar decisions autònomes en l’assignació dels recursos. Finalment, malgrat que diversos estudis han tractat ja el problema VNE en entorn multi-domini, les propostes actuals de supervivència de xarxes virtuals s'han limitat a contexts d'aprovisionament per part d'un sol InP. En canvi, a la pràctica, la virtualització de xarxes comportarà un entorn d'aprovisionament multi-domini, i com que l’extensió de solucions de supervivència d'un sol domini al multi-domini no es trivial, aquesta Tesi proposa una solució distribuïda i dinàmica per a la supervivència de VNs. Això s'aconsegueix amb un sistema multi-agent que utilitza un protocol de negociació multi-atribut i un model dinàmic de preus per formar coalicions d'InPs que proporcionaran backups als recursos de les SNs. L'objectiu últim es assegurar que els operadors de xarxes virtuals maximitzin beneficis minimitzant les penalitzacions per violació de la QoS. / La virtualización de redes es una técnica prometedora para afrontar la resistencia de Internet a cambios arquitectónicos, que permite un nuevo modelo de negocio en el que la gestión de la infraestructura está desacoplada del aprovisionamiento del servicio. Esto permite a los proveedores de infraestructuras (InPs), propietarios de la red física subyacente (SN), alquilar segmentos de la misma a los proveedores de servicio, los cuales crearán redes virtuales (VNs), que a su vez pueden ser realquiladas o usadaspara proveer el servicio a usuarios finales. Sin embargo, las diferentes VNs deben inicializarse, mapeando sus nodos y enlaces en los del substrato. Uno de los retos de este proceso de inicialización es el requisito de hacer un uso eficiente de los recursos de la SN. Dado que el benecio de los InPs depende de cuantas VNs puedan alojarse simultáneamente en la SN, el éxito de la virtualización de redes depende, en parte, de cuan eficiente es el uso de los recursos de red físicos por parte de las VNs. Esta Tesis contribuye a la compartición eficiente de recursos para la virtualización de redes dividiendo el problema en tres sub-problemas: (1) mapeo de nodos y enlaces virtuales sobre nodos y enlaces del substrato (VNE), (2) gestión dinámica de los recursos asignados a las VNs a lo largo de su vida útil (DRA), y (3) aprovisionamiento de recursos de backup para asegurar la supervivencia de las VNs. La naturaleza del problema VNE lo hace “NP-Hard". En consecuencia, para simplificar la solución, muchas de las actuales propuestas son heurísticas que parten de unas suposiciones (por ejemplo, SN con recursos ilimitados) de difícil asumir en la práctica. Esta Tesis propone una mejora al problema VNE mediante un algoritmo “one-shot VNE" basado en generación de columnas (CG). La solución CG comienza resolviendo una versión restringida del problema, para después refinarla y obtener la solución final. El objetivo del “one-shot VNE" es mejorar el uso de los recursos, a la vez que con CG se reduce significativamente la complejidad temporal del proceso. Por otro lado,las propuestas actuales son estáticas, ya que los recursos asignados en la fase VNE no se alteran a lo largo de la vida útil de la VN. Las pocas propuestas que permiten reajustes del mapeado original ubican una cantidad fija de recursos a las VNs. Sin embargo, dado que la carga de red varía con el tiempo, debido a la demanda cambiante de los usuarios, ubicar una cantidad fija de recursos basada en situaciones de pico conduce a un uso ineficiente de los recursos por infrautilización de los mismos en periodos de baja demanda, mientras que en esta situación, al tener los recursos reservados, pueden rechazarse nuevas solicitudes de VNs. La segunda contribución de esta Tesis es un conjunto de propuestas para el uso eficiente de los recursos de la SN, asegurando al mismo tiempo la calidad de servicio de las VNs. Para ello se proponen algoritmos de auto-gestión en los que la SN usa técnicas de aprendizaje de máquinas para materializar decisiones autónomas en la asignación de recursos. Finalmente, aunque determinadas investigaciones ya han estudiado el problema multi-dominio VNE, las propuestas actuales de supervivencia de redes virtuales se han limitado a un entorno de provisión de infraestructura de un solo InP. Sin embargo, en la práctica, la virtualización de redes comportará un entorno de aprovisionamiento con múltiples InPs, y dado a que la extensión de las soluciones de supervivencia de un entorno único a uno multi-dominio no es trivial, esta Tesis propone una solución distribuida y dinámica a la supervivencia de VNs. Esto se consigue mediante un sistema multi-agente que usa un protocolo de negociación multi-atributo y un modelo dinámico de precios para conformar coaliciones de InPs para proporcionar backups a los recursos de las SNs. El objetivo último es asegurar que los operadores de VNs maximicen su beneficio minimizando la penalización por violación de la QoS.
153

Strategies for pushing nonlinear microscopy towards its performance limits

Aviles-Espinosa, Rodrigo 27 March 2013 (has links)
The requirement for imaging living structures with higher contrast and resolution has been covered by the inherent advantages offered by nonlinear microscopy (NLM). However, to achieve its full potential there are still several issues that must be addressed. To do so, it is very important to identify and adapt the key elements in a NLM for achieving an optimized interaction among them. These are 1) the laser source 2) the optics and 3) the sample properties for contrast generation. In this thesis, three strategies have been developed for pushing NLM towards its limits based on the light sample interaction optimization. In the first strategy it is experimentally demonstrated how to take advantage of the sample optical properties to generate label-free contrast, eliminating the requirement of modifying the sample either chemically or genetically. This is carried out by implementing third harmonic generation (THG) microscopy. Here, it is shown how the selection of the ultra-short pulsed laser (USPL) operating wavelength (1550 nm) is crucial for generating a signal that matches the peak sensitivity of most commercial detectors. This enables reducing up to seven times the light dose applied to a sample while generating an efficient signal without the requirement of amplification schemes and specialized optics (such as the need of ultraviolet grade). To show the applicability of the technique, a full developmental study of in vivo Caenorhabditis elegans embryos is presented together with the observation of wavelength induced effects. The obtained results demonstrate the potential of the technique at the employed particular wavelength to be used to follow morphogenesis processes in vivo. In the second strategy the limits of NLM are pushed by using a compact, affordable and maintenance free USPL sources. Such device was designed especially for two-photon excited fluorescence (TPEF) imaging of one the most widely used fluorescent markers in bio-imaging research: the green fluorescent protein. The system operating parameters and its emission wavelength enables to demonstrate how matching the employed fluorescent marker two-photon action cross-section is crucial for efficient TPEF signal production at very low powers. This enables relaxing the peak power conditions (40 W) to excite the sample. The enhanced versatility of this strategy is demonstrated by imaging both fixed and in vivo samples containing different dyes. More over the use of this laser is employed to produce second harmonic generation images of different samples. Several applications that can benefit by using such device are outlined. Then a comparison of the employed USPL source is performed versus the Titanium sapphire laser (the most used excitation source in research laboratories). The final goal of this strategy is to continue introducing novel laser devices for future portable NLM applications. In this case, the use of chip-sized semiconductor USPL sources for TPEF imaging is demonstrated. This will allow taking NLM technology towards the sample and make it available for any user. In the last strategy, the light interaction with the optical elements of a NLM workstation and the sample were optimized. The first enhancement was carried out in the laser-microscope optical path using an adaptive element to spatially shape the properties of the incoming beam wavefront. For an efficient light-sample interaction, aberrations caused by the index mismatch between the objective, immersion fluid, cover-glass and the sample were measured. To do so the nonlinear guide-star concept, developed in this thesis, was employed for such task. The correction of optical aberrations in all the NLM workstation enable in some cases to have an improvement of more than one order of magnitude in the total collected signal intensity. The obtained results demonstrate how adapting the interaction among the key elements of a NLM workstation enables pushing it towards its performance limits. / La creciente necesidad de observar estructuras complicadas cada vez con mayor contraste y resolución han sido cubiertas por las ventajas inherentes que ofrece la microscopia nolineal. Sin embargo, aun hay ciertos aspectos que deben ser ajustados para obtener su máximo desempeño. Para ello es importante identificar y adaptar los elementos clave que forman un microscopio optimizar la interacción entre estos. Dichos elementos son: 1) el laser, 2) la óptica y 3) las propiedades de la muestra. En esta tesis, se realizan tres estrategias para llevar la eficiencia de la microscopia nolineal hacia sus límites. En la primera estrategia se demuestra de forma experimental como obtener ventaja de las propiedades ópticas de la muestra para generar contraste sin el uso de marcadores mediante la generación de tercer harmónico. Aquí se muestra como la selección de la longitud de onda del láser de pulsos ultracortos es crucial para que la señal obtenida concuerde con la máxima sensibilidad del detector utilizado. Esto permite una reducción de la dosis de luz con la que se expone la muestra, elimina intrínsecamente el requerimiento de esquemas de amplificación de señal y de óptica de tipo ultravioleta (generalmente empleada en este tipo de microscopios). Mediante un estudio comparativo con un sistema convencional se demuestra que los niveles de potencia óptica pueden ser reducidos hasta siete veces. Para demostrar las ventajas de dicha técnica se realiza un estudio completo sobre el desarrollo embrionario de Caenorhabditis elegans y los efectos causados por la exposición de la muestra a dicha longitud de onda. Los resultados demuestran el potencial de la técnica para dar seguimiento a procesos morfogénicos en muestras vivas a la longitud de onda utilizada. En la segunda estrategia se diseñó una fuente de pulsos ultracortos que es compacta, de costo reducido y libre de mantenimiento para excitar mediante la absorción de dos fotones uno de los marcadores más utilizados en el entorno biológico, la proteína verde fluorescente. Los parámetros de operación en conjunto con la longitud de onda emitida por el sistema proporcionan la máxima eficiencia permitiendo el uso de potencias pico muy bajas (40 W), ideales para relajar la exposición de la muestra. La versatilidad de esta estrategia se demuestra empleando muestras fijas y vivas con diferentes marcadores fluorescentes. Este láser también es empleado para la obtención de señal de segundo harmónico en diferentes muestras. Adicionalmente, se llevó a cabo un estudio comparativo entre la fuente desarrollada y un sistema Titanio zafiro (uno de los láseres más utilizados en laboratorios de investigación). El objetivo final de esta estrategia es introducir fuentes novedosas para aplicaciones portátiles basadas en procesos nolineales. En base a esto se demuestra el uso de dispositivos construidos sobre un microchip para generar imágenes de fluorescencia de dos fotones. Esto permitirá llevar la tecnología hacia la muestra biológica y hacerla disponible para cualquier usuario. En la última estrategia se optimiza de la interacción de la luz con los elementos ópticos del microscopio y la muestra. La primera optimización se lleva a cabo en la trayectoria óptica que lleva el láser hacia el microscopio empleando un elemento adaptable que modifica las propiedades espaciales de la luz. Para mejorar la interacción de la luz y la muestra se miden las aberraciones causadas por la diferencia de índices refractivos entre el objetivo, el medio de inmersión y la muestra. Esto se realizo empleando el concepto de la “estrella guía nolineal” desarrollado en esta tesis. Mediante la corrección de las aberraciones en el sistema de microscopia nolineal se obtiene una mejora, en algunos casos de un orden de magnitud, en la intensidad total medida. Los resultados obtenidos en esta tesis demuestran como el adaptar la interacción entre los elementos clave en un microscopio nolineal permiten llevar su desempeño hacia los límites.
154

Exponentiated weibull fading channel model in free-space optical communications under atmospheric turbulence

Barrios Porras, Ricardo 17 May 2013 (has links)
Free-space optical (FSO) communications is drawing increasing attention as a promising technology to overcome bandwidth shortage, of an evermore crowded wireless marketplace. Currently radio-frequency (RF) technology struggles to cope with the ever increasing demand for high-bandwidth data. Moreover, as the number of users increases, the RF spectrum is getting so crowded that there is virtually no room for new wireless services, with the additional inconvenient of limited bandwidth restriction for using a RF band and the license fees that have to be paid for such bands. FSO communications offer clear advantages over other alternatives such as narrower and more secure beams, virtually limitless bandwidth and no regulatory policies for using optical frequencies and bandwidth. Moreover, in the space sector FSO technology is becoming more attractive for satellite communication systems due to the less mass and power requirements --compared to RF. The major drawback for deploying wireless links based on FSO technology is the perturbation of the optical wave as it propagates through the turbulent atmosphere. Many effects are produced, of which the most noticeable is the random fluctuations of the signal-carrying laser beam irradiance (intensity), phenomenon known as scintillation and quantified by the scintillation index (SI). The statistical analysis of the random irradiance fluctuations in FSO links is conducted through the probability density function (PDF), from which one can obtain other statistical tools to measure link performance such as the probability of fade and the bit error-rate (BER). Nowadays, the most widespread models for the irradiance data are, by far, the Lognormal (LN) and Gamma-Gamma (GG) distributions. Although both models comply with actual data in most scenarios neither of them is capable of fitting the irradiance data under all conditions of atmospheric turbulence for finite receiving aperture sizes, i.e. in the presence of aperture averaging. Furthermore, there are several cases where neither the LN or the GG model seem to accurately fit the irradiance data, specially in the left tail of the PDF. The work presented in this thesis is devoted to propose a new model for the irradiance fluctuations in FSO links under atmospheric turbulence, in the presence of aperture averaging; resulting in the exponentiated Weibull (EW) distribution. A physical justification for the appearance of the new model is provided along with numerous test scenarios in the weak-to-strong turbulence regime --including numerical simulations and experimental data-- to assess its suitability to model the irradiance data in terms of the PDF and probability of fade. Here, a semi-heuristic approach is used to find a set of equations relating the EW parameters directly to the SI. Such expressions were tested offering a fairly good fitting the actual PDF of irradiance data. Furthermore, for all the scenarios tested a best fit version of the EW PDF is obtained and always presents itself as an excellent fit to the PDF data. The new model has been compared to the LN and GG distributions proving to cope to the predictions made by those and, in some cases, even outperforming their predictions. Additionally, a new closed-form expression has been derived for estimating the BER performance under EW turbulence, for intensity-modulation/direct-detection (IM/DD) systems using on-off keying (OOK) modulation. Moreover, this expression has been extended to include pointing errors. Finally, the exponentiated Weibull PDF has been proved to be valid with fully and partially coherent beams. The results presented here suggest that the EW distribution presents the better fit for data under different scenarios, thus, the exponentiated Weibull distribution becomes an excellent alternative to model the PDF of irradiance data under all conditions of atmospheric turbulence in the presence of aperture averaging.
155

Contribución al análisis y a la modelación de convertidores continua-continua de orden elevado: estructura Boost con filtro de salida

Font Teixidó, Josep 24 September 1993 (has links)
Este trabajo presenta un estudio del convertidor Boost Bidireccional con filtro de salida, abordando los aspectos de modelación y control. Se presenta un modelo de pequeña señal que permite separar los polos del convertidor de los polos del filtro de salida poniendo de manifiesto la escasa influencia de la parte lineal (filtro) sobre la dinámica del sistema. Se estudian asimismo distintas estrategias de control en pequeña señal de un solo lazo (realimentación de la tensión de salida) y de dos lazos (control en modo corriente) que ponen de manifiesto la mejora de la dinámica del regulador en este ultimo caso.Finalmente, se extiende la realimentación de estado en el caso del comportamiento no lineal del convertidor. Dicha extensión conduce a una síntesis de controles en el dominio temporal, que han sido simulados y corroborados experimentalmente, permitiendo establecer la eficacia del control en modo corriente en régimen de gran señal.
156

Off-axis holography in microwave imaging systems

Marín Garcia, Jordi 23 January 2015 (has links)
En las pasadas décadas, la investigación en tecnología de terahercios fue únicamente motivada por instrumentación para los campos de astrofísica y ciencias de la tierra. La principal línea de investigación de estos campos comprende la detección, identificación y mapeo mediante espectroscopia molecular de bandas de emisión y absorción de gases a baja presión. Este campo fue el mayor foco de desarrollo que permitió en primer lugar el desarrollo de instrumentación y tecnología a bandas de terahercios. En contraposición con su uso en campos científicos, la radiación de terahercios es una de las bandas de radio-frecuencia menos usadas en el ámbito comercial. La escasez de fuentes, sensores, sub-sistemas e instrumentos ha dificultado en los últimos años la proliferación de aplicaciones para un mayor público de consumo. La combinación de los últimos avances tecnológicos provenientes del campo científico, así como el descubrimiento de nuevas aplicaciones ha despertado de nuevo el interés por este campo, lo que ha supuesto un nuevo impulso económico para el desarrollo a estas frecuencias tanto a nivel público como privado. Además del mencionado interés científico, la radiación de terahercios tiene características muy atractivas como por ejemplo una buena resolución espacial (comparada con menores frecuencias), penetración en materiales, capacidades espectroscópicas, absorción por humedad y niveles bajos de energía. El trabajo desarrollado en esta tesis es parte de un proyecto de investigación a nivel nacional Español denominado Terasense. El interés principal de este proyecto es equipar las instituciones de investigación académicas con un nuevo conjunto de instrumentación y capacidades para poder desarrollar proyectos en el estado del arte en el campo de ondas milimétricas y sub-milimétricas. El objetivo principal de esta tesis es explorar la viabilidad de sistemas de imagen en microondas y ondas milimétricas basados en técnicas holográficas mediante medidas de intensidad. En este documenta se estudia principalmente el uso de la técnica holográfica con referencia desplazada. No solo desde un punto de vista teórico sino especialmente desde un punto de vista experimental y práctico. En la tesis, diferentes experimentos y dispositivos son simulados, diseñados e implementados. La ida y vuelta entre software y hardware ha permitido la creación de un marco de desarrollo para el test de las diferentes técnicas de imagen estudiadas. El rango de frecuencia escogido como meta para este proyecto es la banda de frecuencia W (75-110 GHz). Sin embargo, muchos experimentos han sido desarrollados primero en banda X (8-12 GHz) para desarrollar la experiencia necesaria requerida para trabajar a frecuencias superiores en el rango de las ondas milimétricas. / In past decades research in terahertz technology was solely motivated by instruments for topics such as astrophysics, planetary and earth sciences. Molecular line spectroscopy detection, identification and mapping of thermal emission and absorption signatures from low pressure gases comprised the main focus for most scientific requirements and motivated the development of terahertz instrumentation and technology. In spite of the scientific contributions of terahertz radiation, its spectrum is still one of the least used electromagnetics bands in commercial use. The unavailability of sources, sensors, sub-systems and instruments has been a cumbersome issue over the past years for its wide-spread use in commercial instrumentation. The combination of technological advances coming from the space-based community, along with the emergence of new applications, have managed to drive again the interest from both public and private sectors which has renown and skyrocketed the funding and research in terahertz applications. Aside from the aforementioned scientific interest, terahertz radiation has appealing characteristics such as good imaging resolution (as compared to lower frequencies), material penetration, spectroscopic capabilities, water absorption and low energy levels. The work of this thesis is part of a Spanish national research project called Terasense. The main focus of the project is to equip national academic research institutions with a completely new set of instrumentations and capabilities in order to advance towards the current state of the art in millimeter and sub-millimeter wave technologies. The main objective of this thesis is to explore the viability of microwave and millimeter-wave imaging systems based on intensity-only holographic techniques. This dissertation is mostly focused on the Off-Axis Holography technique. Not only from a theoretical perspective but specially from an actual implementation standpoint. In order to do so, different experimental setups and devices have been designed and manufactured. Iteration between hardware and software has created a framework for devising and testing different imaging techniques under consideration. The frequency range W-Band (75-110 GHz) has been chosen as the main goal for all systems under study, however different setups will first be constructed, characterized and tested at X-Band (8-12 GHz) in order to build up the expertise required to work at millimeter-wave frequencies.
157

Contribución al estudio de mejora de prestaciones del protocolo TCP en diferentes entornos

Calveras, Anna 19 January 2000 (has links)
Internet, la mayor red de ordenadores del mundo, formada por millones de terminales repartidos por todo el planeta, está basada en la arquitectura de protocolos TCP/IP, cuyas aplicaciones más utilizadas son, sin duda, el correo electrónico, la transferencia de ficheros, el acceso remoto y el acceso a la Web. Todas ellas tienen en común el protocolo de transporte que utilizan, TCP [Ste94, RFC793, RFC2581], que es extremo a extremo, fiable y orientado a conexión.Los protocolos de la arquitectura TCP/IP fueron diseñados para ser utilizados en redes compuestas únicamente por ordenadores fijos y en las que el principal problema era la limitación en el ancho de banda disponible y la tasa de error de bit. Tanto las tecnologías de red como las necesidades de los usuarios han ido evolucionando, debiendo hacer un esfuerzo importante en la adecuación de los protocolos para su comportamiento óptimo en los nuevos entornos.En primer lugar se ha evolucionado hacia entornos de alta velocidad en los que las líneas de transmisión son extremadamente fiables, con lo cual el problema de la transmisión fiable extremo a extremo se centra en la pérdida de paquetes debido a los problemas de congestión de los nodos de conmutación de la red. Para obtener buenas prestaciones del protocolo deben plantearse mecanismos que actúen de forma eficiente en los casos de congestión.Siguiendo la evolución, actualmente se plantea el uso de este tipo de protocolos sobre el canal radio móvil, el cuál presenta características muy diferentes. La velocidad reducida de los enlaces y la elevada tasa de error en bit (BER) son el aspecto diferencial. Por lo tanto, un aspecto crítico a la hora de determinar la viabilidad de ofrecer servicios de datos basados en aplicaciones TCP/IP en redes móviles es el del análisis de las posibilidades de acoplamiento de esta arquitectura de protocolos a este nuevo enlace de comunicación.
158

Wireless sensor networks in the future internet of things: density, mobility, heterogeneity and integration

Barceló Lladó, Marc 09 November 2015 (has links)
Las redes de sensores inalámbricos están destinadas a revolucionar nuestra manera de vivir, trabajar y relacionarnos con el entorno. Aunque este tipo de redes ha estado en el foco de la investigación científica durante la última década, su rendimiento en implementaciones prácticas está todavía muy por detrás de los resultados teóricos. Esto es en gran parte debido a los problemas prácticos que aparecen en entornos reales. Como resultado, su uso está generalmente limitado a aplicaciones simples de monitorización del entorno. El objetivo de esta tesis es reducir el margen entre el potencial teórico y real de las redes de sensores inalámbricos y de esta manera incrementar su integración dentro de la sociedad. En concreto, la tesis se centra en los siguientes cuatro obstáculos: alta densidad de nodos, movilidad de nodos, tráfico heterogéneo e integración en el internet de las cosas. Primero, el objetivo es el de reducir las interferencias en despliegues de alta densidad de nodos. Para ello se propone un esquema práctico para realizar el enrutado, el control de potencia y la selección de canal, basado en el protocolo RPL (Routing Protocol for Low-Power and Lossy Networks). Esta solución permite reducir las colisiones entre paquetes y además mejorar el consumo energético de este tipo de redes. Segundo, se pretende mejorar la baja fiabilidad y robustez de las redes de sensores inalámbricos con nodos móviles. Con este objetivo se presenta un método que combina RPL con un sistema de enrutado que considera la posición de los nodos basado en el filtro de Kalman. Éste combina la eficiencia y fiabilidad de RPL permitiendo además manejar nodos móviles. Tercero, se estudian maneras de proporcionar la calidad de servicio necesaria a las redes de sensores con tráfico heterogéneo. Para ello se propone una estrategia multi árbol basada en la construcción de múltiples instancias RPL. Ésta construye diferentes topologías virtuales para cada función objetivo, y de esta manera es posible atender los requisitos de cada flujo de tráfico de manera independiente. Finalmente, se estudia la manera de integrar las redes de sensores inalámbricos dentro de la nube y el internet de las cosas. Con este objetivo se propone una formulación para coordinar la utilización de los recursos de la red de manera conjunta usando estrategias de virtualización y computación móvil en la nube. Esto permite reducir el consumo energético de la red, teniendo en cuenta las capacidades y limitaciones de cada nodo, satisfaciendo tanto los requisitos de los diferentes servicios como los de los usuarios. / Wireless sensor networks (WSNs) are expected to revolutionize the way we live, work, and interact with the physical environment. Although WSNs have been in the spotlight of the research community for the last decade, their performance in practical implementations is still far behind the theoretical results. This is mainly due to the practical issues that arise in real-life scenarios. As a result, WSNs are generally limited to simple environmental sensing applications. The aim of this thesis is to reduce the gap between the theoretical and real potential of WSNs, and therefore increase their integration in society. In particular, this thesis focuses on the following four practical obstacles: high node density, node mobility, traffic heterogeneity and integration with the future Internet of Things (IoT). First, we deal with the interference problem in high density sensor deployments. We address this issue proposing a pragmatic joint routing, transmission power control and channel allocation approach, built upon the well-known RPL (Routing Protocol for Low-Power and Lossy Networks). This reduces the average packet collisions and the energy consumption of WSNs. Second, we address the low communication reliability and robustness in WSNs with mobile nodes. In particular, we propose a solution that combines RPL with a position-based routing approach based on Kalman filtering. This provides the efficiency and reliability of RPL, and also includes mobility support for non-static nodes. Third, we study the problem of QoS (Quality of Service) provisioning in WSNs managing heterogeneous traffic. With this in mind, we propose a multi-tree approach based on the construction of multiple RPL Instances. This constructs multiple virtual topologies to address the particular requirements of each traffic flow individually. Finally, we focus on the efficient integration of wireless sensors with Cloud-based IoT platforms. In particular, we propose a formulation to orchestrate the resource utilization of the whole network, taking advantage of the recent advances in virtualization and mobile cloud computing. This optimizes the overall consumption, considering the capabilities and limitations of each node, while satisfying the service requirements and the individual users' demands.
159

Experimental and numerical study of the symbolic dynamics of modulated semiconductor lasers with optical feedback

Torrentino, Taciano 10 July 2015 (has links)
The goal of this thesis is to investigate the influence of current modulation in the dynamics of the low-frequency fluctuations (LFF) regime induced by optical feedback in semiconductor lasers. In this regime the laser output exhibits apparently random and sudden dropouts that, in some statistical properties, are similar to excitable neuronal spikes. Long time series containing tens of thousands of LFF dropouts were experimentally acquired and simulated, using the Lang and Kobayashi model, under different conditions. By detecting the individual dropouts, the intensity time series were transformed in series of inter-spike intervals (ISI). We then analyzed the ISI sequences by using a symbolic method of analysis capable of unveil serial correlations in data sets, known as ordinal symbolic analysis. Our findings reveal the existence of a hierarchical and clustered organization of ordinal patterns in the ISI series. When the laser is subject to periodical external forcing, through modulation of the injection current, we identify clear changes in the dynamics as the increase of the modulation amplitude induces deterministic-like behavior in the system. When the modulation frequency is varied, the change in the statistics of the various symbols is empirically shown to be related to specific changes in the ISI distribution, which arise due to different noisy phase-locking regimes. We also investigated how the spike rate is affected by the modulation, for different parameters that determine the natural (without modulation) spike rate. When the intrinsic spike dynamics is slow, fast modulation can produce faster spikes. When the intrinsic dynamics is already fast, modulation cannot induce much faster spikes. Similar effects were observed in the spike correlations: we found that higher natural spike rates wash out the effects of the modulation in the spike correlations. Simulations of the Lang and Kobayashi model are shown to be in good agreement with the experimental observations. The results reported in this thesis may be important to the use of semiconductor lasers as optical spiking neurons in information processing networks inspired by biological ones, and more generally, to the analysis of serial correlations in spiking excitable systems. Future work may include investigations of how correlations that encode an external signal spread in a small network of semiconductor lasers. / El objetivo de esta tesis es investigar la influencia de la modulación de corriente sobre la dinámica de los láseres semiconductores con realimentación óptica en el regimen de fluctuaciones de baja frequencia (low-frequency fluctuations, o LFF) . En este regimen la intensidad de la salida del láser muestra caídas abruptas y aparentemente aleatorias que son similares, en algunas propiedades estadísticas, a los spikes neuronales excitables. Largas series temporales, que contienen decenas de estas caídas, fuerón adquiridas experimentalmente y simuladas usando el modelo de Lang y Kobayashi, bajo diferentes condiciones. Al detectar las caídas individuales, las series temporales son transformadas en series de intervalos entre caídas (inter-spike intervals, o ISI). Seguidamente, se analizan las secuencias de ISI mediante el uso de un método de análisis simbólico, conocidos como análisis simbólico ordinal, capaz de revelar correlaciones seriales en los conjuntos de datos. Nuestros resultados revelan la existencia de una organización jerárquica y agrupada de los patrones ordinales en las series de ISI. Cuando el láser está sujeto a forzamiento externo periódico, a través de la modulación de la corriente de inyección, identificamos cambios claros en la dinámica. El aumento de la amplitud de modulación induce comportamiento determinista en el sistema. Cuando la frecuencia de modulación es variada, se muestra empíricamente el cambio en las estadísticas de los distintos símbolos, que está relacionado a los cambios específicos en la distribución de los ISI. Estos cambios surgen debido a diferentes regímenes ruidosos en el bloqueo en fase. También se investigó cómo la frecuencia de aparicion de las caídas se ve afectada por la modulación, para los diferentes parámetros que determinan la frecuencia natural (sin modulación) de las caídas. Cuando la dinámica intrínseca de las caídas es lenta, la modulación rápida puede producir caídas más rápidas. Cuando la intrínseca dinámica ya es rápida, la modulación no puede inducir caídas mucho más rápidas. Efectos similares fueron observados en las correlaciones de las caídas: encontramos que mayores tasas de las caídas naturales acaban con los efectos de la modulación en las correlaciones. Las simulaciones de lo modelo de Lang y Kobayashi se muestran estar en buen acuerdo con las observaciones experimentales. Los resultados presentados en esta tesis pueden ser importantes para el uso de láseres semiconductores por ejemplo como neuronas ópticas en redes de procesamiento de información, inspiradas en las redes de neuronas biológicas, y más generalmente, para el análisis de las correlaciones seriales en sistemas excitables. El trabajo futuro podría incluir la investigación de cómo correlaciones que codifican una señal externa se propagan en una pequeña red de láseres semiconductores.
160

Priority realloc : a threefold mechanism for route and resources allocation in EONs

Dantas, Joana Sócrates 17 July 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Escola Politécnica da Universidade de São Paulo / Backbone networks are responsible for long-haul data transport serving many clients with a large volume of data. Since long-haul data transport service must rely on a robust high capacity network the current technology broadly adopted by the industry is Wavelength Division Multiplexing (WDM). WDM networks enable one single fiber to operate with multiple high capacity channels, drastically increasing the fiber capacity. In WDM networks each channel is associated with an individual wavelength. Therefore a whole wavelength capacity is assigned to a connection, causing waste of bandwidth in case the connection bandwidth requirement is less than the channel total capacity. In the last half decade, Elastic Optical Networks (EON) have been proposed and developed based on the flexible use of the optical spectrum known as the flexigrid. EONs are adaptable to clients requirements and may enhance optical networks performance. For these reasons, research community and data transport providers have been demonstrating increasingly high interest in EONs which are likely to replace WDM as the universally adopted technology in backbone networks in the near future. EONs have two characteristics that may limit its efficient resources use. The spectrum fragmentation, inherent to the dynamic EON operation, decreases the network capacity to assign resources to connection requests increasing network blocking probability. The spectrum fragmentation also intensifies the denial of service to higher rate request inducing service unfairness. Due to the fact EONs were just recently developed and proposed, the aforementioned issues were not yet extensively studied and solutions are still being proposed. Furthermore, EONs do not yet provide specific features as differentiated service mechanisms. Differentiated service strategies are important in backbone networks to guarantee client's diverse requirements in case of a network failure or the natural congestion and resources contention that may occur at some periods of time in a network. Impelled by the foregoing facts, this thesis objective is three-fold. By means of developing and proposing a mechanism for routing and resources assignment in EONs, we intend to provide differentiated service while decreasing fragmentation level and increasing service fairness. The mechanism proposed and explained in this thesis was tested in an EON simulation environment and performance results indicated that it promotes beneficial performance enhancements when compared to benchmark algorithms. / Redes backbone sao responsáveis pelo transporte de dados à longa distância que atendem a uma grande quantidade de clientes com um grande volume de dados. Como redes backbone devem basear-se em uma rede robusta e de alta capacidade, a tecnologia atual amplamente adotada pela indústria é Wavelength Division Multiplexing (WDM). Redes WDM permitem que uma única fibra opere com múltiplos canais de alta largura de banda, aumentando drasticamente a capacidade da fibra. Em redes WDM cada canal está associado a um comprimento de onda particular. Por conseguinte, toda capacidade do comprimento de onda é atribuída a uma única conexão, fazendo com que parte da largura de banda seja desperdiçada no caso em que a requisição de largura de banda da conexão seja menor do que a capacidade total do canal. A partir da metade da última década, as Redes Ópticas Elásticas (Elastic Optical Networks - EON) têm sido propostas e desenvolvidas com base no uso flexível do espectro óptico conhecido como flexigrid. EONs são adaptáveis às requisiçes por banda dos clientes e podem, portanto, melhorar o desempenho das redes ópticas. Por estas razões, EONs têm recebido cada vez mais interesse dos meios de pesquisa e provedores de serviço e provavelmente substituirão WDM como a tecnologia universalmente adotada pela indústria em redes backbone. EONs têm duas características que podem limitar a utilização eficiente de recursos. A fragmentação do espectro, inerente à operação dinâmica das EONs, pode diminuir a capacidade da rede em distribuir recursos ao atender às solicitações por conexões aumentando a probabilidade de bloqueio na rede. A fragmentação do espectro também intensifica a negação de serviço às solicitações por taxa de transmissão mais elevada, gerando injustiça no serviço prestado. Como EONs foram desenvolvidas recentemente, respostas às questões acima mencionadas ainda estão sob estudo e soluções continuam sendo propostas na literatura. Além disso, EONs ainda não fornecem funções específicas como um mecanismo que proveja diferenciação de serviço. Estratégias de diferenciação de serviço são importantes em redes backbone para garantir os diversos requisitos dos clientes em caso de uma falha na rede ou do congestionamento e disputa por recursos que podem ocorrer em alguns períodos em uma rede. Impulsionada pelos fatos anteriormente mencionados, esta tese possui três objetivos. Através do desenvolvimento e proposta de um mecanismo de roteamento e atribuição de recursos para EONs, temos a intenção de disponibilizar diferenciação de serviço, diminuir o nível de fragmentação de espectro e aumentar a justiça na distribuição de serviços. O mecanismo proposto nesta tese foi testado em simulações de EONs. Resultados indicaram que o mecanismo proposto promove benefícios através do aprimoramento da performance de uma rede EON quando comparado com algoritmos de referência. / Les xarxes troncals son responsables per el transport de dades a llarga distància que serveixen a una gran quantitat de clients amb un gran volum de dades. Com les xarxes troncals han d'estar basades en una xarxa robusta i d'alta capacitat, la tecnologia actual àmpliament adoptada per la indústria és el Wavelength Division Multiplexing (WDM). Xarxes WDM permeten operar amb una sola fibra multicanal d'alt ample de banda, el que augmenta molt la capacitat de la fibra. A les xarxes WDM cada canal est a associat amb una longitud d'ona particular. En conseqüència, tota la capacitat del canal es assignada a una sola connexió, fent que part dels recurs siguin perduts en el cas en que l'ample de banda sol licitada sigui menys que la capacitat total del canal. A gairebé deu anys les xarxes òptiques elàstiques (Elastic Optical Networks -EON) son propostes i desenvolupades basades en el ús visible de l'espectre òptic conegut com Flexigrid. EONs són adaptables a les sol·licituds per ample de banda dels clients i per tant poden millorar el rendiment de les xarxes òptiques. Per aquestes raons, EONs han rebut cada vegada més interès en els mitjans d’investigació i de serveis i, probablement, han de reemplaçar el WDM com la tecnologia universalment adoptada en les xarxes troncals. EONs tenen dues característiques que poden limitar l'ús eficient dels recursos seus. La fragmentació de l'espectre inherent al funcionament dinàmic de les EONs, pot disminuir la capacitat de la xarxa en distribuir els recursos augmentant la probabilitat de bloqueig de connexions. La fragmentació de l'espectre també intensifica la denegació de les sol·licituds de servei per connexions amb una major ample de banda, el que genera injustícia en el servei ofert. Com les EONs s'han desenvolupat recentment, solucions als problemes anteriors encara estan en estudi i les solucions segueixen sent proposades en la literatura. D'altra banda, les EONs encara no proporcionen funcions especifiques com mecanisme de diferenciació de provisió de serveis. Estratègies de diferenciació de servei són importants en les xarxes troncals per garantir les diverses necessitats dels clients en cas d'una fallada de la xarxa o de la congestió i la competència pels recursos que es poden produir en alguns períodes. Impulsada pels fets abans esmentats, aquesta tesi te tres objectius. A través del desenvolupament i proposta d'un mecanisme d'enrutament i assignació de recursos per EONs, tenim la intenció d'oferir la diferenciació de serveis, disminuir el nivell de fragmentació de l'espectre i augmentar l'equitat en la distribució dels serveis. El mecanisme proposat en aquesta tesi ha estat provat en simulacions EONs. Els resultats van indicar que el mecanisme promou millores en el rendiment de la EON, en comparació amb els algoritmes de referència.

Page generated in 0.0979 seconds