• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 319
  • 94
  • 40
  • 1
  • Tagged with
  • 454
  • 454
  • 364
  • 364
  • 364
  • 153
  • 100
  • 99
  • 94
  • 94
  • 94
  • 81
  • 47
  • 44
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Contribución a la regulación del tráfico en Redes ATM: aplicación al tráfico de vídeo

Cruz Llopis, Luis Javier de la 10 February 1999 (has links)
De entre los nuevos servicios ofrecidos por las actuales redes de banda ancha, los que incluyen la transmisión de secuencias de vídeo se convertirán en un futuro próximo en algunos de los más solicitados por los usuarios. Actualmente, estos servicios son principalmente transportados por canales de tasa binaria constante. Sin embargo, el tráfico de vídeo es por naturaleza variable, con lo que la utilización de recursos de red se vería sustancialmente mejorada utilizando canales de tasa variable.En este trabajo se plantea el problema de la transmisión eficiente de tráfico de vídeo comprimido MPEG de tasa variable sobre redes ATM de banda ancha. Para ello, en primer lugar se realiza un estudio de los algoritmos de compresión y de los mecanismos de transmisión más comúnmente utilizados en la actualidad. Además, se introducen algunas de las especificaciones que se encargan de estandarizar sistemas y servicios relacionados con la transmisión de vídeo, como el vídeo bajo demanda del ATM Forum o las especificaciones DAVIC.Posteriormente se lleva a cabo una caracterización del tráfico de vídeo, con objeto de entender la naturaleza del tráfico que se va a entregar a la red para su transmisión. Una de las principales características de este tipo de tráfico es la presencia de dependencias a corto y largo plazo. Estas dependencias son modeladas en este trabajo mediante un filtro ARIMA fraccional, que finalmente se propondrá para la generación artificial de tráfico de vídeo.Uno de los principales problemas inherentes al algoritmo de codificación MPEG es que la tasa binaria resultante presenta un comportamiento periódico que se repite cada cierto número de imágenes. Este comportamiento es perjudicial tanto cuando se trata de asignar eficientemente recursos de red como cuando se trata de multiplexar distintas secuencias de vídeo. Con objeto de eliminar este comportamiento sin introducir retardos adicionales, se propone un conformador predictivo de tráfico que es comparado con otros esquemas propuestos. La comparación se lleva a cabo por un lado mediante el estudio de los parámetros y funciones que definen la variabilidad de las secuencias estudiadas. Por otra parte, se analizan los recursos necesarios para la transmisión y multiplexación de fuentes de vídeo conformadas y sin conformar.Finalmente, con objeto de lograr una utilización lo más eficiente posible de los recursos de red, manteniendo una alta calidad de servicio, se propone un esquema de renegociación del ancho de banda asignado. Con este sistema, en momentos de menor actividad se liberarán recursos que podrán ser utilizados por otras conexiones, tanto de servicios de vídeo a tasa variable, como de servicios de tasa constante o de tasa disponible. Por el contrario, en momentos de gran actividad, se podrán solicitar más recursos a la red de forma que el usuario final no perciba ningún cambio en la calidad del servicio que se le está suministrando. El método presentado se basa en la caracterización previa del tráfico de vídeo mediante un modelo de fluidos bidimensional que captura las dependencias a corto y largo plazo del tráfico. Al ser utilizado para la transmisión de un tráfico que previamente ha sido conformado, el modelo debe capturar el comportamiento del tráfico promediado sobre un determinado número de imágenes. Además, permite la detección de los intervalos de distinta actividad, que se han denominado de actividad regular, de gran actividad y de actividad elevada.
62

Contribución a la transmisión de vídeo en redes IP con calidad de servicio

Alins Delgado, Juanjo 17 September 2004 (has links)
Hoy en día, entre los servicios más solicitados por los usuarios en las redes de comunicaciones, se encuentran aquellos que incorporan información multimedia. En Internet, es habitual que un gran número de páginas web incorporen imágenes, información de audio y en algunos casos, información de vídeo. Sin embargo, debido a que Internet sólo ofrece un servicio de entrega best-effort, la información audiovisual recibe el mismo tratamiento que el dispensado a cualquier otro tipo de datos poco sensibles al retardo temporal. Con el fin de desarrollar nuevos marcos de operación que permitan la diferenciación en el tratamiento de los servicios sobre redes basadas en IP, el IETF ha propuesto dos arquitecturas de red con calidad de servicio: IntServ y DifServ. De esta forma se pretende soportar adecuadamente la transmisión de flujos inelásticos de tasa variable mediante la ubicación de recursos especialmente dedicados al transporte de servicios con restricciones temporales acotadas. Actualmente, el tráfico de vídeo se transporta principalmente a través de canales de tasa binaria constante. Sin embargo, este tráfico es por naturaleza variable, con lo que la utilización de los recursos de red se vería sustancialmente mejorada utilizando canales de tasa variable.En este trabajo se plantea el problema de la transmisión eficiente de tráfico de vídeocomprimido MPEG de tasa variable sobre redes IP con calidad de servicio. Para ello, en primer lugar se realiza un, estudio de los algoritmos de compresión más comúnmente utilizados en la actualidad. A continuación, se realiza un análisis detallado de las distintas alternativas para la transmisión de vídeo en redes IP. En primera instancia se ha descrito la problemática del transporte de vídeo en redes de conmutación de paquetes sin garantías de servicio, discutiendo la necesidad de la aplicación de técnicas de control de tasa y suavizado de tráfico.Posteriormente se han introducido las nuevas arquitecturas IntServ y DiffServ especificadas para dar soporte a servicios con un nivel de calidad garantizado. Sobre estas arquitecturas se han discutido las posibles alternativas de transmisión de vídeo sobre redes IP con QoS y la adecuación de los esquemas de codificación de vídeo estandarizados que pueden ser aplicados sobre ellas.A partir de este estudio se ha puesto de relieve la necesidad de la caracterización del tráfico de vídeo ya que requiere de elevados anchos de banda que además fluctúan ampliamente a lo largo de la conexión. La caracterización del tráfico se ha llevado a cabo a través del modelado MMFP bidimensional de los flujos de vídeo VBR a nivel de GoP. El estudio se ha realizado con un amplio conjunto de secuencias codificadas VBR con diferentes niveles de calidad y resolución espacial. Los resultados han demostrado la aplicabilidad de este modelo de forma general sobre cualquier secuencia de vídeo con independencia de su resolución o nivel de degradación introducido en el proceso de codificación. Una de las principales contribuciones al modelado de estos servicios ha sido el desarrollo de una metodología de ajuste de los parámetros del modelo MMFP bidimensional que permite una automatización del proceso de caracterización del tráfico de vídeo.Una vez se ha alcanzado un conocimiento de comportamiento del tráfico de vídeo de calidad de imagen constante, se ha abordado su transmisión sobre redes IP con QoS. El marco de trabajo contempla la aplicación de mecanismos de renegociación y de asignación dinámica de recursos. El trafico de vídeo detasa variable es un ejemplo claro en el que un sistema de renegociaciones maximiza la eficiencia de los recursos de red. La gran variabilidad de tasa binaria exhibida por este tipo de tráfico y su grado de persistencia hacen apropiada la aplicación de técnicas de segmentación sobre las secuencias de vídeo. En este trabajo se han analizado diferentes esquemas de renegociación y se ha estudiado su aplicabilidad en el contexto de redes IP con QoS y facilidades de renegociación de recursos por conexión. Se han analizado las técnicas "Work-ahead buffering" donde se explota intensivamente el buffer del cliente para almacenar datos enviados "por adelantado". El estudio ha permitido derivar una nueva propuesta denominada 2-RCBR. Complementariamente, se ha derivado una nueva técnica de segmentación basada en el modelo MMFP bidimensional analizado, obteniéndose un esquema de segmentación genérico e independiente de la resolución y del factor de cuantificación utilizado ella codificación de las secuencias. Este método, que se ha denominado método de los umbrales genéricos, permite desarrollar una segmentación de una secuencia de vídeo de forma extraordinariamente simple con un elevado nivel de eficiencia. Por otro lado, teniendo en cuenta que se desea fijar una cota máxima del retardo extremo a extremo durante el servicio de video streaming, se ha propuesto una nueva técnica de segmentación basada en el retardo máximo aceptado, garantizando un retardo máximo dentro de la red IP para cada segmento transmitido.La última parte del trabajo ha desarrollado la arquitectura de transmisión escalada sobre redes IP. A raíz de los excelentes resultados obtenidos hasta el momento, se ha procedido a aplicar la misma metodología para la codificación escalable. Se ha caracterizado el flujo escalable de tasa variable mediante el modelo MMFP bidimensional y se han aplicado las técnicas de segmentación propuestas anteriormente. Los resultados obtenidos han seguido el comportamiento esperado, pudiéndose considerar satisfactorios.
63

Development and validation of the thermal diagnostics instrumentation in lisa pathfinder

Sanjuán Muñoz, Josep 29 September 2009 (has links)
This thesis focuses on the issues related to the thermal diagnostics aboard the space mission LISA Pathfinder (LPF). LPF is a technological mission devoted to put to test critical subsystems for the LISA mission. LISA will be the first space born gravitational wave (GW) observatory with the main objective of detecting GWs. GWs are ripples of the space-time geometry caused by acceleration of masses in an asymmetric way. Their detection requires put test masses (TMs) in an almost perfect inertial frame (or free fall).Non-inertial forces perturbing the TMs must be less than 6 fN/sqrt(Hz) in the frequency range of 0.1 mHz to 0.1 Hz and the noise in the measurement between the TMs (separated by 5 Gm) must be of 40 pm/sqrt(Hz) in the same band. To reduce the risks of a direct launch of LISA, ESA has decided to first launch LPF to put all the LISA technologies to test.The payload of LPF, the LISA Technology Package (LTP), contains two TMs placed in two cylinders inside a single spacecraft (SC) and an interferometric system that measures the relative distance between them. The SC isolates the TMs from the external disturbances but internal stray forces will still perturb the TMs. Their levels must be bounded not to challenge the free fall accuracy. One of these disturbances is temperature fluctuations and the aspects related to their measurement are the leitmotif of this thesis.In chapter 1 we have presented how temperature fluctuations couple into the key subsystems of the LTP to degrade their performance. The foreseen effects are radiation pressure, radiometer effect, temperature coefficient of optical components, etc. Onground estimations conclude that the temperature stability in the LTP must be less than 100 microK/sqrt(Hz) in the frequency range of 1 mHz to 30 mHz (LTP band). Since temperature fluctuations are an important issue in LPF and in LISA, a thermal diagnostic subsystem is needed aboard both missions.The task of the thermal diagnostics in the LTP is twofold: on the one hand, temperature fluctuations in different subsystems must be measured with noise levels of 10 microK/sqrt(Hz) in the LTP band. On the other hand, a set of heaters will generate heat pulses that in conjunction with temperature measurements will be used to estimate the actual coupling between temperature and systems performance. These actions will provide information on the behaviour of the system and will permit to identify the fraction of noise in the system coming from temperature issues. The main function of LPF, as precursor mission of LISA, is the understanding of all the noise sources in the system. This will provide clues to the final leap from LPF sensitivity to LISA one.The main investigations carried out during this thesis can be split into three main categories: (i) the design and validation of the LTP temperature measurement subsystem (TMS); (ii) the extension of the system to the LISA requirements; and (iii) the analysis of the in-flight thermal experiments in the LTP. The thesis is organised as follows: in chapter 2 we describe the designed electronics and the temperature sensors chosen. Aspects related to the coupling of the TMS with other subsystems nearby are discussed in chapter 3. Chapter 4 focuses on the design of the testbed needed for the validation of the TMS. Two different testbeds are described: one for the LTP measurement bandwidth (MBW) and another one for the LISA MBW, 0.1 mHz. In chapter 5 we present the results of the test campaigns: the prototype, the engineering model and the flight model systems were put to test. The results of the investigations in the LISA band are also shown. Chapter 6 contains investigations in view of LISA requirements to reduce excess noise at very low frequency and to reduce the floor noise of the measurement. Chapter 7 focuses on the thermal experiment on-board LPF: a set of thermal excitations are proposed to extract information of the thermal behaviour of the key subsystems of the LTP.
64

Marine applications of SAR polarimetry

Margarit Martín, Gerard 11 July 2007 (has links)
Els oceans mantenen una fràgil i complexa cadena que enllaça un alt nombre de factors biològics, sociològics i econòmics. Actualment, aquest ecosistema està amenaçat per l'activitat humana i uns dels punts més crítics és la sobreexplotació pesquera. Això ha despertat la consciencia de les autoritats d'arreu per a protegir l'entorn marí i assegurar, així, la seguretat i supervivència dels éssers humans. Tal objectiu demana el desenvolupament de polítiques de control que monitorin l'activitat dels vaixells. Fins l'actualitat, diferents propostes s'han estudiat per monitorar vaixells, com per exemple transpondedors, teledetecció òptica i sensors acústics passius. L'experiència en entorns reals ha demostrat que cap d'aquestes solucions és eficient. Una alternativa poden ser els Radars d'Obertura Sintètica (SAR). Aquests sistemes utilitzen les propietats de reflectivitat i dispersió dels vaixells per identificar-los amb independència de qualsevol fenomen atmosfèric i del cicle dia/nit. El sensors SAR sintetitzen una obertura més gran que la real permetent l'obtenció d'imatges de reflectivitat d'uns quants kilòmetres d'amplada amb una resolució de pocs metres.En la monitorització de vaixells, la tecnologia SAR ha demostrat unes bones prestacions per la detecció. Treu profit del fet que els vaixells dispersen més energia que el mar i, així, apareixen en les imatges com punts molt brillants. Però, la seva utilitat en la identificació de vaixells encara no està clara. Hi ha dues limitacions importants: 1) les resolucions dels sistemes actuals no semblen suficients per aïllar característiques geomètriques a partir de la informació de reflectivitat i 2) les distorsions que les signatures dels vaixells experimenten en entorns marins. Aquests problemes es poden resoldre parcialment si s'utilitzen dades SAR multidimensional. Aquest concepte es refereix al fet d'adquirir imatges SAR modificant un o més paràmetres del sistema. En la classificació de vaixells, hi ha dues opcions clares: 1) Polarimetria SAR (PolSAR) que utilitza les dues components polarimètriques de l'ona EM i 2) la Interferometria SAR que s'obté per la combinació de dues imatges SAR adquirides des de posicions molt properes. Per a una banda, la polarització de l'ona EM és una propietat intrínseca de l'ona que ajuda a aïllar estructures geomètriques particulars per mitjà de la teoria de descomposició de blancs (TD). Per l'altra, la interferometria treu profit de la diferencia de fase entre les dues imatges SAR per obtenir la tercera dimensió de l'escena.PolSAR and InSAR presenten grans possibilitats per la monitorització de vaixells ja que poden solucionar algunes de les limitacions dels mètodes clàssics. Desafortunadament, encara no han estat profundament estudiades a causa de les dificultats en obtenir dades reals validades. Això ha limitat el nombre d'estudis en aquesta temàtica. En aquest entorn, la tesi està orientada a avaluar fins a quin punt les tècniques PolSAR i InSAR poden ser útils per la monitorització de vaixells. Per a tal propòsit, s'han fixat quatre objectius importants:1. El desenvolupament d'un simulador SAR eficient que doni imatges realistes de vaixells i que solucioni el dèficit de dades reals en entorns marins.2. L'estudi de la dispersió dels vaixells que fixi els principals mecanismes de dispersió observats en imatges SAR i com es relacionen amb la geometria dels vaixells. 3. Un estudi de les prestacions de les tècniques actuals d'anàlisis de dades PolSAR en la classificació de vaixells.4. El desenvolupament d'un mètode nou i eficient per la identificació de vaixells.Al llarg de la tesis, els diferents punts seran estudiats i resolts. El desenvolupament de GRECOSAR, un simulador SAR de blancs complexes que dóna imatges de vaixells similars a les adquirides en entorns reals, ha estat essencial per estudiar les propietats de dispersió dels vaixells. Ha permès demostrar que els vaixells es poden distingir a partir del seu patró dispersiu, el qual és senzill i dominat per alguns dispersors guia que presenten una marcada estabilitat i potència de dispersió. Amb aquests resultats ha estat possible desenvolupar un nou mètode que pot identificar vaixells sota condicions d'observació adverses. Combina característiques polarimètriques i interferomètriques SAR (PolInSAR) per inferir estimacions 3D de la geometria dels vaixells. Diferents tests han demostrat que aquest mètode dóna una millor fiabilitat en la identificació que altres mètodes actualment disponibles. Malgrat tot, fixa uns requeriments tecnològics més elevats, sobretot en la resolució de les imatges i en les característiques PolInSAR. La nova generació de sensors SAR els poden cobrir. / Oceans support a complex and fragile chain that links a high number of biological, sociological and economical factors. In these days, this ecosystem is endangered by human activity and one of the main hot spots is overfishing. As a result, authorities worldwide have become aware about the necessity to law-protect the marine environment in order to assure the safety and sustenance of human beings. This demands the development of fisheries policy to monitor the activities of ships.Up to now, different vessel monitoring proposals have been considered, for instance transponders, optical remote sensing or passive acoustic sensors. The lessons learnt in real scenarios have shown that none of these solutions is efficient. A feasible option may be the so-called active Synthetic Aperture Radar (SAR) technology. It uses the reflectivity/scattering properties of vessels for basing the identification process with independence of any atmospheric phenomena and day/night cycle. SAR sensors synthesize an antenna aperture larger than the real one and this allows to acquire reflectivity images of some tens of kilometers wide with a resolution of few meters.In vessel monitoring, SAR imagery has proven good performance for vessel detection. They take profit of the fact that vessels normally backscatter more power than the sea and, hence, they appear in the images as bright spots. But their usefulness in vessel identification has not been established yet. There are two main limitations, namely: 1) the resolution of current systems that appears to be not enough for isolating geometrical features from the reflectivity information of SAR images and 2) the distortions that vessel' signatures experiment within sea scenarios. Such problems can be solved up to certain extend if multidimensional SAR data is used. This concept refers to the possibility to acquire different SAR images by modifying one or more imaging parameters. In the scope of vessel classification, there are two main options, namely: 1) SAR polarimetry (PolSAR) that refers to the usage of the two polarimetric components of the EM wave and 2) SAR interferometry (InSAR) derived by combining two SAR images acquired from slightly different positions. On the one hand, the polarization of an EM wave is an intrinsic wave property that helps on identifying specific geometrical structures via Target Decomposition (TD) theory. On the other hand, Interferometry takes profit of the phase difference between the two SAR images to retrieve the third dimension of the scene.PolSAR and InSAR have great potentialities for supporting vessel monitoring as they can overcome some of the limitations of classical methods. Unfortunately, they have not been exploited yet due to the difficulties on having at one's disposal real data with reliable ground-truth. This has limited the number of works tackling such issue. In this framework, the current thesis is focused to evaluate up to which extend PolSAR and InSAR imagery are reliable for vessel monitoring. For such purpose, four main goals are proposed, namely:1. The development of an efficient SAR simulation environment that provides realistic vessel SAR images and overcomes the current data deficiency related to marine scenarios.2. The study of vessel scattering to fix the main polarimetric scattering mechanisms observed in vessel SAR images and how they are related with the geometries of vessels.3. A performance study of current analysis tools of PolSAR data in vessel classification.4. The development of a novel and efficient methodology for vessel identification.Along the thesis, the different points are studied and solved. The development of GRECOSAR, a SAR simulator of complex targets able to provide vessel images similar to those obtained in real scenarios, has been essential for studying the scattering properties of vessels. It has allowed to show that vessels can be distinguished by means of their scattering pattern, which appear to be not so complex and dominated by some guide scatters that present a marked reflectivity stability and scattered power. With these results, a new approach able to identify vessels even under adverse observation conditions has been developed. It combines polarimetric and interferometric SAR (PolInSAR) capabilities to retrieve 3D estimates of the geometry of ships. Different tests have shown that the proposed method provides better identification confidence than other available methods. However, it demands higher technological requirements in terms of image resolution and PolInSAR features. The new generation of SAR sensors may fulfill them.
65

Contributions to QoS and energy efficiency in wi-fi networks

Camps Mur, Daniel 19 January 2012 (has links)
The Wi-Fi technology has been in the recent years fostering the proliferation of attractive mobile computing devices with broadband capabilities. Current Wi-Fi radios though severely impact the battery duration of these devices thus limiting their potential applications. In this thesis we present a set of contributions that address the challenge of increasing energy efficiency in Wi-Fi networks. In particular, we consider the problem of how to optimize the trade-off between performance and energy effciency in a wide variety of use cases and applications. In this context, we introduce novel energy effcient algorithms for real-time and data applications, for distributed and centralized Wi-Fi QoS and power saving protocols and for Wi-Fi stations and Access Points. In addition, the di¿erent algorithms presented in this thesis adhere to the following design guidelines: i) they are implemented entirely at layer two, and can hence be easily re-used in any device with a Wi-Fi interface, ii) they do not require modi¿cations to current 802.11 standards, and can hence be readily deployed in existing Wi-Fi devices, and iii) whenever possible they favor client side solutions, and hence mobile computing devices implementing them can benefit from an increased energy efficiency regardless of the Access Point they connect to. Each of our proposed algorithms is thoroughly evaluated by means of both theoretical analysis and packet level simulations. Thus, the contributions presented in this thesis provide a realistic set of tools to improve energy efficiency in current Wi-Fi networks.
66

Controlador de histéresis de bajo coste para convertidos buck síncrono multifase

Borrell Sanz, Angel 12 July 2012 (has links)
The multiphase synchronous buck converter is universally used today for powering low voltage, high current and high slew-rate loads, such as CPUs and other high performance digital ICs. This converter demands control techniques with high dynamical response in order to face large and fast load transients. In this regard, hysteretic regulators represent an excellent option due to their immediate reaction, unlimited duty cycle and outstanding capacity for handling large signal regimes. The main contributions of much published work in the field of multiphase hysteretic controllers are current sharing and phase interleaving. However, the author is not aware of any studies describing a control scheme that integrates the main control functions for powering such demanding loads: output voltage regulation, adaptive voltage positioning, current sharing and phase interleaving. Nor is there a design methodology based on the closed-loop output impedance. This design would optimize the output voltage transient response and, in this way, the entire voltage tolerance window of the processor would be exploited. Thus, this research work presents a novel hysteretic controller for a multi-phase synchronous buck converter supplying low voltage, high current and high slew-rate loads along with a design methodology based on closed-loop output impedance analysis. The single-phase hysteretic controller is the start point for this research work. Several authors have extensively treated the single-phase hysteretic controller. In this regard, a review of a low-cost single-phase control scheme is carried out first. The main feature of this controller is the lack of current sensing and processing circuitry in order to accomplish the adaptive voltage regulation. Then, the influence of variations of the inductor and output capacitor and the control parameters on the output impedance is studied. This has allowed for establishing a correspondence between each of the control parameters and the output filter components. The review finishes by implementing a synchronization system to achieve fixed switching frequency in steady state while maintaining the instantaneous reaction and optimal output-voltage response during transients. At this point, a novel low-cost hysteretic controller for multiphase synchronous buck converters is presented. Two design alternatives for the controller are proposed. The first uses an equivalent single-phase converter to design the control parameters. This approximation is valid as long as the deviations between the phases of the converter are within the usual limits (+/- 15 %). The second does the same considering the exact model of the converter, achieving resistive output impedance regardless of the differences that exist between the phases. Simulation and experimental results are reported in order to validate the features of the novel control scheme. From a practical point of view, the lack of current sensing and processing circuitry in the controller allow for a simple and low-cost implementation of the adaptive voltage positioning and current sharing with outstanding performance. The injection of an external synchronization signal has been proved to be a simple alternative in order to implement fixed switching frequency and phase interleaving operation. Finally, the proposed controller achieves similar characteristics to the high performance controllers intended for powering low voltage, high current and fast transient loads, but with the additional advantage of simplicity and low-cost circuit implementation. / Actualmente, el convertidor buck síncrono multifase es universalmente utilizado para la alimentación de cargas dinámicas de baja tensión y elevada corriente como CPUs y otros circuitos integrados digitales de altas prestaciones. Este convertidor exige de técnicas de control con alta respuesta dinámica para hacer frente a los grandes y rápidos transitorios de carga a los que es sometido. A este respecto, los reguladores de histéresis representan una excelente opción debido a su reacción inmediata, ciclo de trabajo ilimitado y excepcional capacidad para manejar régimen de gran señal. Las principales aportaciones de la mayor parte de trabajos publicados en el campo de los controladores de histéresis multifase son distribución de corriente entre las fases y funcionamiento entrelazado. Sin embargo, el autor no tiene conocimiento de estudios que describan un esquema de control que integre las principales funciones de control para la alimentación de tales exigentes cargas: regulación de tensión de salida con posicionamiento adaptativo, distribución de corriente y funcionamiento entrelazado. Tampoco existe una metodología de diseño basada en la impedancia de salida de lazo cerrado. Este diseño optimiza la respuesta transitoria de la tensión de salida y, de este modo, se puede aprovechar toda la ventana de tolerancia del procesador. Por lo tanto, este trabajo de investigación presenta un novedoso controlador de histéresis para convertidor síncrono multifase destinado a alimentar cargas dinámicas de baja tensión y alta corriente, junto con una metodología de diseño basada en el análisis de la impedancia de salida de lazo cerrado. El controlador de la histéresis de una sola fase es el punto de partida de este trabajo de investigación. Varios autores han tratado ampliamente el controlador de histéresis de una sola fase. En este sentido, en primer lugar se lleva a cabo una revisión de un esquema de control de bajo coste de una sola fase. La característica principal de este controlador es la ausencia de circuitos de sensado y procesado de corriente para lograr la regulación de tensión adaptativa. El estudio de la influencia de las variaciones del inductor, condensador de salida y los parámetros de control y los componentes del filtro de salida. La revisión termina implementando un sistema de sincronización para lograr frecuencia fija de comunicación en estado estacionario, que mantiene la reacción instantánea y la respuesta transitoria óptima de la tensión de salida. Llegado a este punto, se presenta un controlador de histéresis de bajo coste para convertidores buck síncrono multifase. Se proponen dos alternativas de diseño para controlador. La primer a utiliza un equivalente de convertidor de una sola fase para diseñar los parámetros de control. Esta aproximación es válida siempre y cuando las desviaciones entre las fases del convertidor están dentro de los límites habituales (+/-15%). La segunda hace lo propio teniendo en cuenta el modelo exacto del convertidor, logrando impedancia de salida resistiva independientemente de las diferencias que existan entre las fases. Se presentan los resultados de simulación y experimentales con el fin de validar las características del esquema de control propuesto. Desde un punto de vista práctico, la ausencia de circuitos de sensado y procesado de corriente en el controlador permiten una implementación sencilla y de bajo coste para las funciones de regulación de tensión con posicionamiento adaptativo de reparto de corriente con buen rendimiento. La inyección de una señal de sincronización externa demuestra ser una alternativa simple a fin de obtener frecuencia fija de conmutación y funcionamiento entrelazado de las fases. Finalmente, el controlador propuesto alcanza características similares alos controladores destinados a la alimentación de cargas de baja tensión y alta dinámica con la ventaja adicional de la simplicidad y el bajo coste de implementación.
67

GNSS array-based acquisition: theory and implementation

Arribas Lázaro, Javier 28 June 2012 (has links)
This Dissertation addresses the signal acquisition problem using antenna arrays in the general framework of Global Navigation Satellite Systems (GNSS) receivers. The term GNSS classi es those navigation systems based on a constellation of satellites, which emit ranging signals useful for positioning. Although the American GPS is already available, which coexists with the renewed Russian Glonass, the forthcoming European contribution (Galileo) along with the Chinese Compass will be operative soon. Therefore, a variety of satellite constellations and signals will be available in the next years. GNSSs provide the necessary infrastructures for a myriad of applications and services that demand a robust and accurate positioning service. The positioning availability must be guaranteed all the time, specially in safety-critical and mission-critical services. Examining the threats against the service availability, it is important to take into account that all the present and the forthcoming GNSSs make use of Code Division Multiple Access (CDMA) techniques. The ranging signals are received with very low precorrelation signal-to-noise ratio (in the order of ���22 dB for a receiver operating at the Earth surface). Despite that the GNSS CDMA processing gain o ers limited protection against Radio Frequency interferences (RFI), an interference with a interference-to-signal power ratio that exceeds the processing gain can easily degrade receivers' performance or even deny completely the GNSS service, specially conventional receivers equipped with minimal or basic level of protection towards RFIs. As a consequence, RFIs (either intentional or unintentional) remain as the most important cause of performance degradation. A growing concern of this problem has appeared in recent times. Focusing our attention on the GNSS receiver, it is known that signal acquisition has the lowest sensitivity of the whole receiver operation, and, consequently, it becomes the performance bottleneck in the presence of interfering signals. A single-antenna receiver can make use of time and frequency diversity to mitigate interferences, even though the performance of these techniques is compromised in low SNR scenarios or in the presence of wideband interferences. On the other hand, antenna arrays receivers can bene t from spatial-domain processing, and thus mitigate the e ects of interfering signals. Spatial diversity has been traditionally applied to the signal tracking operation of GNSS receivers. However, initial tracking conditions depend on signal acquisition, and there are a number of scenarios in which the acquisition process can fail as stated before. Surprisingly, to the best of our knowledge, the application of antenna arrays to GNSS signal acquisition has not received much attention. This Thesis pursues a twofold objective: on the one hand, it proposes novel arraybased acquisition algorithms using a well-established statistical detection theory framework, and on the other hand demonstrates both their real-time implementation feasibility and their performance in realistic scenarios. The Dissertation starts with a brief introduction to GNSS receivers fundamentals, providing some details about the navigation signals structure and the receiver's architecture of both GPS and Galileo systems. It follows with an analysis of GNSS signal acquisition as a detection problem, using the Neyman-Pearson (NP) detection theory framework and the single-antenna acquisition signal model. The NP approach is used here to derive both the optimum detector (known as clairvoyant detector ) and the sov called Generalized Likelihood Ratio Test (GLRT) detector, which is the basis of almost all of the current state-of-the-art acquisition algorithms. Going further, a novel detector test statistic intended to jointly acquire a set of GNSS satellites is obtained, thus reducing both the acquisition time and the required computational resources. The eff ects of the front-end bandwidth in the acquisition are also taken into account. Then, the GLRT is extended to the array signal model to obtain an original detector which is able to mitigate temporally uncorrelated interferences even if the array is unstructured and moderately uncalibrated, thus becoming one of the main contributions of this Dissertation. The key statistical feature is the assumption of an arbitrary and unknown covariance noise matrix, which attempts to capture the statistical behavior of the interferences and other non-desirable signals, while exploiting the spatial dimension provided by antenna arrays. Closed form expressions for the detection and false alarm probabilities are provided. Performance and interference rejection capability are modeled and compared both to their theoretical bound. The proposed array-based acquisition algorithm is also compared to conventional acquisition techniques performed after blind null-steering beamformer approaches, such as the power minimization algorithm. Furthermore, the detector is analyzed under realistic conditions, accounting for the presence of errors in the covariance matrix estimation, residual Doppler and delay errors, and signal quantization e ects. Theoretical results are supported by Monte Carlo simulations. As another main contribution of this Dissertation, the second part of the work deals with the design and the implementation of a novel Field Programmable Gate Array (FPGA)-based GNSS real-time antenna-array receiver platform. The platform is intended to be used as a research tool tightly coupled with software de ned GNSS receivers. A complete signal reception chain including the antenna array and the multichannel phase-coherent RF front-end for the GPS L1/ Galileo E1 was designed, implemented and tested. The details of the digital processing section of the platform, such as the array signal statistics extraction modules, are also provided. The design trade-o s and the implementation complexities were carefully analyzed and taken into account. As a proof-of-concept, the problem of GNSS vulnerability to interferences was addressed using the presented platform. The array-based acquisition algorithms introduced in this Dissertation were implemented and tested under realistic conditions. The performance of the algorithms were compared to single antenna acquisition techniques, measured under strong in-band interference scenarios, including narrow/wide band interferers and communication signals. The platform was designed to demonstrate the implementation feasibility of novel array-based acquisition algorithms, leaving the rest of the receiver operations (mainly, tracking, navigation message decoding, code and phase observables, and basic Position, Velocity and Time (PVT) solution) to a Software De ned Radio (SDR) receiver running in a personal computer, processing in real-time the spatially- ltered signal sample stream coming from the platform using a Gigabit Ethernet bus data link. In the last part of this Dissertation, we close the loop by designing and implementing such software receiver. The proposed software receiver targets multi-constellation/multi-frequency architectures, pursuing the goals of e ciency, modularity, interoperability, and exibility demanded by user domains that require non-standard features, such as intermediate signals or data extraction and algorithms interchangeability. In this context, we introduce an open-source, real-time GNSS software de ned receiver (so-named GNSS-SDR) that contributes with several novel features such as the use of software design patterns and shared memory techniques to manage e ciently the data ow between receiver blocks, the use of hardware-accelerated instructions for time-consuming vector operations like carrier wipe-o and code correlation, and the availability to compile and run on multiple software platforms and hardware architectures. At this time of writing (April 2012), the receiver enjoys of a 2-dimensional Distance Root Mean Square (DRMS) error lower than 2 meters for a GPS L1 C/A scenario with 8 satellites in lock and a Horizontal Dilution Of Precision (HDOP) of 1.2. / Esta tesis aborda el problema de la adquisición de la señal usando arrays de antenas en el marco general de los receptores de Sistemas Globales de Navegación por Satélite (GNSS). El término GNSS engloba aquellos sistemas de navegación basados en una constelación de satélites que emiten señales útiles para el posicionamiento. Aunque el GPS americano ya está disponible, coexistiendo con el renovado sistema ruso GLONASS, actualmente se está realizando un gran esfuerzo para que la contribución europea (Galileo), junto con el nuevo sistema chino Compass, estén operativos en breve. Por lo tanto, una gran variedad de constelaciones de satélites y señales estarán disponibles en los próximos años. Estos sistemas proporcionan las infraestructuras necesarias para una multitud de aplicaciones y servicios que demandan un servicio de posicionamiento confiable y preciso. La disponibilidad de posicionamiento se debe garantizar en todo momento, especialmente en los servicios críticos para la seguridad de las personas y los bienes. Cuando examinamos las amenazas de la disponibilidad del servicio que ofrecen los GNSSs, es importante tener en cuenta que todos los sistemas presentes y los sistemas futuros ya planificados hacen uso de técnicas de multiplexación por división de código (CDMA). Las señales transmitidas por los satélites son recibidas con una relación señal-ruido (SNR) muy baja, medida antes de la correlación (del orden de -22 dB para un receptor ubicado en la superficie de la tierra). A pesar de que la ganancia de procesado CDMA ofrece una protección inherente contra las interferencias de radiofrecuencia (RFI), esta protección es limitada. Una interferencia con una relación de potencia de interferencia a potencia de la señal que excede la ganancia de procesado puede degradar el rendimiento de los receptores o incluso negar por completo el servicio GNSS. Este riesgo es especialmente importante en receptores convencionales equipados con un nivel mínimo o básico de protección frente las RFIs. Como consecuencia, las RFIs (ya sean intencionadas o no intencionadas), se identifican como la causa más importante de la degradación del rendimiento en GNSS. El problema esta causando una preocupación creciente en los últimos tiempos, ya que cada vez hay más servicios que dependen de los GNSSs Si centramos la atención en el receptor GNSS, es conocido que la adquisición de la señal tiene la menor sensibilidad de todas las operaciones del receptor, y, en consecuencia, se convierte en el factor limitador en la presencia de señales interferentes. Un receptor de una sola antena puede hacer uso de la diversidad en tiempo y frecuencia para mitigar las interferencias, aunque el rendimiento de estas técnicas se ve comprometido en escenarios con baja SNR o en presencia de interferencias de banda ancha. Por otro lado, los receptores basados en múltiples antenas se pueden beneficiar del procesado espacial, y por lo tanto mitigar los efectos de las señales interferentes. La diversidad espacial se ha aplicado tradicionalmente a la operación de tracking de la señal en receptores GNSS. Sin embargo, las condiciones iniciales del tracking dependen del resultado de la adquisición de la señal, y como hemos visto antes, hay un número de situaciones en las que el proceso de adquisición puede fallar. En base a nuestro grado de conocimiento, la aplicación de los arrays de antenas a la adquisición de la señal GNSS no ha recibido mucha atención, sorprendentemente. El objetivo de esta tesis doctoral es doble: por un lado, proponer nuevos algoritmos para la adquisición basados en arrays de antenas, usando como marco la teoría de la detección de señal estadística, y por otro lado, demostrar la viabilidad de su implementación y ejecución en tiempo real, así como su medir su rendimiento en escenarios realistas. La tesis comienza con una breve introducción a los fundamentos de los receptores GNSS, proporcionando algunos detalles sobre la estructura de las señales de navegación y la arquitectura del receptor aplicada a los sistemas GPS y Galileo. Continua con el análisis de la adquisición GNSS como un problema de detección, aplicando la teoría del detector Neyman-Pearson (NP) y el modelo de señal de una única antena. El marco teórico del detector NP se utiliza aquí para derivar tanto el detector óptimo (conocido como detector clarividente) como la denominada Prueba Generalizada de la Razón de Verosimilitud (en inglés, Generalized Likelihood Ratio Test (GLRT)), que forma la base de prácticamente todos los algoritmos de adquisición del estado del arte actual. Yendo más lejos, proponemos un nuevo detector diseñado para adquirir simultáneamente un conjunto de satélites, por lo tanto, obtiene una reducción del tiempo de adquisición y de los recursos computacionales necesarios en el proceso, respecto a las técnicas convencionales. El efecto del ancho de banda del receptor también se ha tenido en cuenta en los análisis. A continuación, el detector GLRT se extiende al modelo de señal de array de antenas para obtener un detector nuevo que es capaz de mitigar interferencias no correladas temporalmente, incluso utilizando arrays no estructurados y moderadamente descalibrados, convirtiéndose así en una de las principales aportaciones de esta tesis. La clave del detector es asumir una matriz de covarianza de ruido arbitraria y desconocida en el modelo de señal, que trata de captar el comportamiento estadístico de las interferencias y otras señales no deseadas, mientras que utiliza la dimensión espacial proporcionada por los arrays de antenas. Se han derivado las expresiones que modelan las probabilidades teóricas de detección y falsa alarma. El rendimiento del detector y su capacidad de rechazo a interferencias se han modelado y comparado con su límite teórico. El algoritmo propuesto también ha sido comparado con técnicas de adquisición convencionales, ejecutadas utilizando la salida de conformadores de haz que utilizan algoritmos de filtrado de interferencias, como el algoritmo de minimización de la potencia. Además, el detector se ha analizado bajo condiciones realistas, representadas con la presencia de errores en la estimación de covarianzas, errores residuales en la estimación del Doppler y el retardo de señal, y los efectos de la cuantificación. Los resultados teóricos se apoyan en simulaciones de Monte Carlo. Como otra contribución principal de esta tesis, la segunda parte del trabajo trata sobre el diseño y la implementación de una nueva plataforma para receptores GNSS en tiempo real basados en array de antenas que utiliza la tecnología de matriz programable de puertas lógicas (en ingles Field Programmable Gate Array (FPGA)). La plataforma está destinada a ser utilizada como una herramienta de investigación estrechamente acoplada con receptores GNSS definidos por software. Se ha diseñado, implementado y verificado la cadena completa de recepción, incluyendo el array de antenas y el front-end multi-canal para las señales GPS L1 y Galileo E1. El documento explica en detalle el procesado de señal que se realiza, como por ejemplo, la implementación del módulo de extracción de estadísticas de la señal. Los compromisos de diseño y las complejidades derivadas han sido cuidadosamente analizadas y tenidas en cuenta. La plataforma ha sido utilizada como prueba de concepto para solucionar el problema presentado de la vulnerabilidad del GNSS a las interferencias. Los algoritmos de adquisición introducidos en esta tesis se han implementado y probado en condiciones realistas. El rendimiento de los algoritmos se comparó con las técnicas de adquisición basadas en una sola antena. Se han realizado pruebas en escenarios que contienen interferencias dentro de la banda GNSS, incluyendo interferencias de banda estrecha y banda ancha y señales de comunicación. La plataforma fue diseñada para demostrar la viabilidad de la implementación de nuevos algoritmos de adquisición basados en array de antenas, dejando el resto de las operaciones del receptor (principalmente, los módulos de tracking, decodificación del mensaje de navegación, los observables de código y fase, y la solución básica de Posición, Velocidad y Tiempo (PVT)) a un receptor basado en el concepto de Radio Definida por Software (SDR), el cual se ejecuta en un ordenador personal. El receptor procesa en tiempo real las muestras de la señal filltradas espacialmente, transmitidas usando el bus de datos Gigabit Ethernet. En la última parte de esta Tesis, cerramos ciclo diseñando e implementando completamente este receptor basado en software. El receptor propuesto está dirigido a las arquitecturas de multi-constalación GNSS y multi-frecuencia, persiguiendo los objetivos de eficiencia, modularidad, interoperabilidad y flexibilidad demandada por los usuarios que requieren características no estándar, tales como la extracción de señales intermedias o de datos y intercambio de algoritmos. En este contexto, se presenta un receptor de código abierto que puede trabajar en tiempo real, llamado GNSS-SDR, que contribuye con varias características nuevas. Entre ellas destacan el uso de patrones de diseño de software y técnicas de memoria compartida para administrar de manera eficiente el uso de datos entre los bloques del receptor, el uso de la aceleración por hardware para las operaciones vectoriales más costosas, como la eliminación de la frecuencia Doppler y la correlación de código, y la disponibilidad para compilar y ejecutar el receptor en múltiples plataformas de software y arquitecturas de hardware. A fecha de la escritura de esta Tesis (abril de 2012), el receptor obtiene un rendimiento basado en la medida de la raíz cuadrada del error cuadrático medio en la distancia bidimensional (en inglés, 2-dimensional Distance Root Mean Square (DRMS) error) menor de 2 metros para un escenario GPS L1 C/A con 8 satélites visibles y una dilución de la precisión horizontal (en inglés, Horizontal Dilution Of Precision (HDOP)) de 1.2.
68

Micromachined polymer based components for highly integrated millimeterwave subsystems

Jaimes Vera, Edith Aline 16 March 2012 (has links)
La región de microondas en el espectro electromagnético tiene propiedades únicas que le permiten a las señales propagarse a través de la atmósfera bajo casi cualquier condición climática, ésta es la razón por la cual los sistemas de microondas han tenido un enorme impacto sobre la sociedad. En los últimos años se ha presentado una importante expansión en las comunicaciones móviles y en las redes de área local, emergiendo nuevas aplicaciones a frecuencias micro/milimétricas, tales como: la transmisión satelital a 35 GHz, las redes de área local de banda ancha a 60 GHz, comunicación entre vehículos a 63 GHz o en radares para evitar colisiones entre vehículos a 77 GHz. A medida que estas aplicaciones han emigrado a frecuencias más elevadas, las limitaciones de las tecnologías convencionales han sido visibles. Por lo cual en los últimos años se ha presentado un creciente interés en el desarrollo de nuevas técnicas de fabricación para la implementación de dispositivos de microondas; las cuales ofrezcan un mejor rendimiento del dispositivo a la vez que una reducción en sus dimensiones y en los costos de fabricación. El principal objetivo de este trabajo ha sido la implementación de dispositivos de filtrado en un amplio rango de frecuencias (banda X, U y V). Las topologías aquí presentadas son novedosas al introducir resonadores y líneas de alimentación suspendidas en aire, donde el uso de aire como dieléctrico permite obtener un factor de calidad mayor. Además el proceso de fabricación es relativamente simple y de bajo costo, ofreciendo estructuras compactas las cuales pueden ser altamente integradas. En la implementación de los dispositivos se utilizaron técnicas de maquinado convencional para los diseños en la banda X y técnicas de micromaquinado en SU-8 en los dispositivos de las bandas U y V. Las estructuras para la banda X fabricadas mediante maquinado convencional sirvieron como validación de las topologías a frecuencias más elevadas. Las estructuras diseñadas han demostrado la viabilidad de las topologías para un amplio rango de frecuencias, obteniendo resultados satisfactorios en cuanto a las prestaciones del dispositivo. / The microwave region in the electromagnetic spectrum has properties that allow signals to propagate through the atmosphere under almost any weather condition, this is the reason why microwave systems have had an enormous impact on society. In recent years there has been a major expansion in mobile communications and local area networks, emerging new applications at micro/millimeterwave frequencies, such as: satellite transmission at 35 GHz, wideband local area networks at 60 GHz, communication among vehicles at 63 GHz or vehicular collision avoidance radar at 77 GHz. As these applications have migrated to higher frequencies, the limitations of conventional technologies have been visible. Therefore in recent years there has been a growing interest in the development of new manufacturing techniques for the implementation of microwave devices; which offer better device performance as well as a reduction in the size and manufacturing costs. The main objective of this work has been the implementation of filtering devices in a wide range of frequencies (X, U and V-band). The topologies presented are novel introducing resonators and air suspended feed lines, where the use of air as dielectric allows a higher quality factor. Besides manufacturing process is relatively simple and inexpensive, providing compact structures which can be highly integrated. In the implementation of the devices were used conventional machining techniques for X-band designs and micromachining techniques in SU-8 for U and V-band desings. The X-band structures manufactured by conventional machining served as validation of the topologies at higher frequencies. The designed structures have shown the feasibility of the topologies for a wide range of frequencies, with satisfactory results regarding the performance of the device.
69

Radio Resource Management strategies based hopfield neural networks

Garcia Garcia, Núria, 1958- 25 May 2009 (has links)
Esta tesis doctoral se enmarca en la temática de Gestion de Recursos Radioelectricos en los sistemas de comunicaciones móviles, 3G, B3G y 4G. Como es ampliamente conocido los recursos radios son escasos, particularmente en los sistemas de comunicaciones móviles celulares, y en consecuencia es de uso obligado una gestión eficiente de los mismos. Desde un punto de vista práctico si bien estos sistemas se basan en el uso de tecnologías de acceso radio estandarizada, no es este el caso para los algoritmos subyacentes a la gestión de los recursos radio, de manera que siempre son posibles nuevas realizaciones de los mismos que resulten más convenientes en el marco del estándar en cuestión. Es en esta dirección hacia donde apunta la realización de esta tesis doctoral, y entiendo que lo consigue con éxito al introducir nuevas estrategias de Gestion de los Recursos Radio en el marco de las estrategias de múltiple acceso CDMA en los sistemas 3G, TDMA/CDMA en los sistemas B3G y OFDMA en los sistemas 4G. Esta tesis, tras identificar los gestores más usuales de gestión de recursos radio y una breve descripción de los mismos, introduce una descripción básicamente autocontenida de los aspectos más relevantes de los sistemas de acceso múltiple WCDMA y OFDMA. En este sentido se detallan mecanismos de su funcionamiento que con posterioridad serán utilizados en la definición y especificación de los algoritmos de gestión de recursos propiamente dichos. Con posterioridad se hace un breve recorrido sobre lo que son las redes neuronales , para finalizar en una exposición más detallada de las Redes Neuronales de Hopfield que serán el hilo conductor de los trabajos de esta tesis. En particular se describen las ecuaciones que caracterizan estas redes como sistemas dinámicos y se establecen sus condiciones de convergencia a través de los teoremas de estabilidad Lyapunov y la definición de la función Energía.De la conjunción de las particularidades de los sistemas de acceso WCDMA, TDMA y OFDMA y de las redes neuronales de Hopfield se van desarrollando una serie de algoritmos que operan en escenarios unicelulares y que entiendo novedosos y que a continuación enumeran brevemente.Admisión en un sistema WCDMA , enlace ascendente, mediante una gestión optimizada de las distintas velocidades de transmisión asignadas a los usuarios que comparten el acceso y que se les permite distintos perfiles. Aspectos relativos a la robustez del algoritmo, y en particular a su convergencia son también detallados. Se suponen restricciones de carga de la red máxima, repartición del espectro justa y potencia máxima disponible en los terminales móviles. Se suponen un servicio en tiempo real con velocidades variables. La probabilidad de bloqueo se usa para exhibir las prestaciones del algoritmo.Gestión de las velocidades de los usuarios ya admitidos en un sistema WCDMA,enlace ascendente, con objeto de garantizarles una definida probabilidad de satisfacción superior a un determinado valor y que está basada en las velocidades reales de transmisión asignadas. Se supone también un servicio en tiempo real con velocidades variables y las mismas restricciones que en Admisión. Gestión de las velocidades de los usuarios ya admitidos en un sistema WCDMA, enlace descendente, con objeto de garantizarles un máximo retardo en la entrega de paquetes. Se suponen restricciones de repartición del espectro justa y potencia máxima disponible en la estación de base. Se supone un servicio interactivo basado en un modelo de tráfico para servicios www. Se introduce también un algoritmo de referencia a efectos comparativos. La probabilidad de pérdida es el parámetro usado para valorar las prestaciones del algoritmo.Gestión combinada de servicios en tiempo real e interactivos en sistemas WCDMA, enlace descendente. Incorpora parte de los algoritmos anteriormente enunciados y se mantienen los mismos modelos de tráfico y las mismas restricciones. Se han usado en esta caso las probabilidades de satisfacción y de pérdida para capturar el la velocidad de transmisión agregada y retardo respectivamente Algoritmo de Gestión común de recursos radio para un escenario B3G donde un usuario puede ser servido por más de un acceso. En este caso se han usado WCDMA y TDMA. Algoritmos de Gestión de las velocidades de los usuarios ya admitidos en un sistema OFDMA, enlace descendente, con objeto de garantizarles un máximo retardo en la entrega de paquetes.La tesis apunta también hacia prometedoras futuras líneas de investigación que pretenden explotar la base de la metodología desarrollada en esta tesis y que consisten en escenarios celulares centralizadas para pasar después a distribuidas en entornos multicelulares y en particular para los sistemas OFDMA , base de los accesos en 4G.
70

Device-independent information protocols: measuring dimensionality, randomness and nonlocality

Gallego López, Rodrigo 22 February 2013 (has links)
The device-independent formalism is a set of tools to analyze experimental data and infer properties about systems, while avoiding almost any assumption about the functioning of devices. It has found applications both in fundamental and applied physics: some examples are the characterization of quantum nonlocality and information protocols for secure cryptography or randomness generation. This thesis contains novel results on these topics and also new applications such as deviceindependent test for dimensionality. After an introduction to the field, the thesis is divided in four parts. In the first we study device-independent tests for classical and quantum dimensionality. We investigate a scenario with a source and a measurement device. The goal is to infer, solely from the measurement statistics, the dimensionality required to describe the system. To this end, we exploit the concept of dimension witnesses. These are functions of the measurement statistics whose value allows one to bound the dimension. We study also the robustness of our tests in more realistic experimental situations, in which devices are affected by noise and losses. Lastly, we report on an experimental implementation of dimension witnesses. We conducted the experiment on photons manipulated in polarization and orbital angular momentum. This allowed us to generate ensembles of classical and quantum systems of dimension up to four. We then certified their dimension as well as its quantum nature by using dimension witnesses. The second part focuses on nonlocality. The local content is a nonlocality quantifier that represents the fraction of events that admit a local description. We focus on systems that exhibit, in that sense, maximal nonlocality. By exploiting the link between Kochen-Specker theorems and nonlocality, we derive a systematic recipe to construct maximally nonlocal correlations. We report on the experimental implementation of correlations with a high degree on nonlocality in comparison with all previous experiments on nonlocality. We also study maximally nonlocal correlations in the multipartite setting, and show that the so-called GHZ-state can be used to obtain correlations suitable for multipartite information protocols, such as secret-sharing. The third part studies nonlocality from an operational perspective. We study the set of operations that do not create nonlocality and characterize nonlocality as a resource theory. Our framework is consistent with the canonical definitions of nonlocality in the bipartite setting. However, we find that the well-established definition of multipartite nonlocality is inconsistent with the operational framework. We derive and analyze alternative definitions of multipartite nonlocality to recover consistency. Furthermore, the novel definitions of multipartite nonlocality allows us to analyze the validity of information principles to bound quantum correlations. We show that `information causality' and `non-trivial communication complexity' are insufficient to characterize the set of quantum correlations. In the fourth part we present the first quantum protocol attaining full randomness amplification. The protocol uses as input a source of imperfect random bits and produces full random bits by exploiting nonlocality. Randomness amplification is impossible in the classical regime and it was known to be possible with quantum system only if the initial source was almost fully random. Here, we prove that full randomness can indeed be certified using quantum non-locality under the minimal possible assumptions: the existence of a source of arbitrarily weak (but non-zero) randomness and the impossibility of instantaneous signaling. This implies that one is left with a strict dichotomic choice regarding randomness: either our world is fully deterministic or there exist events in nature that are fully random.

Page generated in 1.5759 seconds