• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 77
  • 32
  • 1
  • Tagged with
  • 371
  • 368
  • 367
  • 364
  • 364
  • 65
  • 56
  • 41
  • 40
  • 40
  • 36
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

La desregulación eléctrica y la utilización de instrumentos derivados para la redistribución del riesgo: Caso mexicano

Reyes Cisneros, María Elena 18 June 2010 (has links)
Esta tesis ha surgido por la confluencia de dos factores. Por un lado, mi interés en los mercados financieros y en especial por los más innovadores, como pueden ser los de derivados y, por otro, la liberalización y la consiguiente implementación de mercados en el sector eléctrico. Para estudiar los mercados eléctricos que se han ido creando internacionalmente, ha sido necesario adentrarnos en la estructura del sector, antes y después de la liberalización, lo que fue una labor difícil, dada la complejidad de estos peculiares mercados. Así mismo, se estudió el proceso liberalizador seguido en los países desarrollados, observándose que, en general, han pasado de unos monopolios verticalmente integrados, a una estructura en la que se configuran dos mercados: uno al por mayor (wholesale) y otro al por menor (retail). En esta nueva estructura permanecen dos monopolios naturales: el de transporte y el de distribución, administrados por entes reguladores con posibilidad de acceso de los distintos participantes en los mercados, mediante el pago de unas tarifas o peajes. Prácticamente todos los países analizados han comenzado por implementar, primero el mercado wholesale y, posteriormente, el retail. El crear de inicio un mercado y aplazar el establecimiento del otro, es dudoso que sea un acierto, no obstante, son los mercados wholesale los que proporcionan más datos y más estudios para debatir. Si bien la reestructuración del sector eléctrico se pensó para darle una mayor eficiencia, también trajo riesgos tales como la extrema volatilidad en los precios; la misma que según experiencias internacionales, se ha cubierto o, mejor dicho, redistribuido, con instrumentos financieros derivados.La electricidad, única por sus características, tiene que ser suministrada al instante, es decir no se puede almacenar, una particularidad que provoca que los generadores produzcan a su máxima capacidad en momentos punta, causando un aumento sustancial en los precios. Así pues, este riesgo ahora tiene que ser asumido por los participantes del mercado: los generadores querrán asegurar un precio que cubra sus costes de producción y los suministradores, por su parte, buscarán cubrir un precio que asegure un precio de venta. La mayoría de los países estudiados en esta tesis, primero han liberalizado el sector eléctrico y, posteriormente, han creado un mercado de instrumentos derivados sobre sus precios, con un gran número de participantes, lo que ha provocado que se redistribuya el riesgo, es decir, que existan algunos participantes menos adversos al riesgo que quieran asumirlo y, a su vez, otros menos adversos que asuman posiciones contrarias. Siendo la electricidad un elemento indispensable en una economía y para la subsistencia actual, es importante que sus precios se mantengan al alcance de los usuarios finales. Los instrumentos derivados han venido a dar confianza y certeza en los precios, la misma que hace que cualquier mercado financiero funcione eficientemente.La gran mayoría de artículos en revistas especializadas han reconocido que la introducción de instrumentos derivados podría disminuir la volatilidad de los precios spot. La creación reciente del mercado de futuros de la península Ibérica ha hecho posible que participáramos e hiciéramos nuestra aportación en este tema. Así, utilizando técnicas de procesos estocásticos para calcular la volatilidad de los precios spot, y el análisis estadístico de regresión, se llega a la conclusión de que, en principio, en el caso español, la implementación del mercado de futuros ha disminuido la volatilidad de los precios spot.Finalmente, y como una parte trascendental de esta investigación, se analiza el sector eléctrico de México -uno de los pocos países de la OCDE que no ha optado por una liberalización-: un sector ineficiente para el que como aportación, se establecen aquí -tras un análisis exhaustivo de experiencias internacionales exitosas-, una serie de propuestas para una posible desregulación y posterior aplicación de instrumentos derivados eléctricos en el existente mercado de derivados MexDer.
62

Control of voltage source converters for distributed generation in microgrids

Pegueroles Queralt, Jordi 20 July 2015 (has links)
Microgrids are the near future candidate to reduce the dependence on the carbon-based generation, towards a more environmentally friendly and sustainable energy paradigm. The popularization of the use of renewable energy sources has fostered the development of better technologies for microgrids, particularly power electronics and storage systems. Following the improvements in microgrid technologies achieved in the last decade, a new challenge is being faced: the control and management of microgrids for its operation in islanded mode, in addition to its large scale integration into the current electrical power system. The unregulated introduction of distributed generation based on renewable energy sources into the power system could cause as many problems as it would solve. The unpredictability of the generated power would introduce large disturbances into the electric system, making it difficult to control, and eventually resulting in an unstable system. To overcome these issues, the paradigm of microgrids has been proposed: a small power system, able to operate islanded from the main grid, which will permit the large scale introduction of renewable energy sources interfaced with power electronic converters together with energy storage systems into the distribution grids. Microgrids¿ ability to allow their users to operate islanded from the utility grid, brings the potential to offer a high quality of service. It is in the islanded operation mode, particularly in microgrids with a high proportion of renewable based generation, where the major technical challenges are found. This thesis focuses in three of the main challenges of islanded and weak electrical grids: the power converter control of electrical storage systems, its decentralized control design, and also the improvement of power quality in grids disturbed by renewable generation. These topics are addressed from a control point of view, that is, to tackle the electrical problems, modelling them and proposing advanced control strategies to improve performance of microgrids. Energy storage system are a vital element to permit the islanded operation of microgrids, either in the long or short term. New control strategies are proposed in this thesis for the improvement of the converters¿ performance. In addition to the control of the converter, the management and control of different energy storage systems for microgrids are also studied. In particular, supercapacitors and batteries have been considered for the short and long term operation, respectively. Then, the control of islanded microgrids is addressed. Typical controls for islanded microgrids are analysed and new tools for designing stable controllers are proposed. Also, methodologies to analytically obtain the operating point (power flow) of droop controlled grids are studied and proposed. The high penetration of renewable energy sources in weak low-voltage grids results in undesirable electrical disturbances. This problematic in power quality is tackled and innovative solutions to mitigate it are proposed. In particular, a novel power smoothing scheme with simultaneous state of charge regulation of the ESS and power filtering. The new power smoothing scheme, along with the proposed control strategies for storage systems have been experimentally validated in a laboratory test bench, using a supercapacitor bank and a high power lithium-ion battery available at IREC's facilities. / Les microxarxes són les candidates en un futur a curt termini, a substituir la generació basada en el carbó, de cara a assolir un sistema energètic més respectuós amb el medi ambient i més sostenible. La popularització de l'ús d'energies renovables ha fomentat la millora de les tecnologies per a microxarxes, en particular els sistemes d'emmagatzematge i l'electronica de potència. Desprès de les millores en tecnologies de microxarxes aconseguides durant l'última dècada, hi ha un nou repte al qual fer front: el control i gestió de microxarxes per la seva operació aïllada, a més de la integració a gran escala dins del sistema elèctric actual. La introducció descontrolada de fonts de generació distribuides en el sistema elèctric pot causar tants problemes com els que podria sol·lucionar. La incertesa en la producció elèctrica pot introduir grans pertorbacions al sistema elèctric, fent-lo difícil de controlar, i fins i tot el pot arribar a inestabilitzar. Per tal de fer front a aquestes dificultats, es proposa el paradigma de microxarxa: un petit sistema elèctric capaç d'operar de forma aïlla de la xarxa de distribució elèctrica, el qual hauria de permetre la integració a gran escala d'energies renovables a través de l'electrònica de potència, juntament amb sistemes d'emmagatzematge d'energia, dins de les xarxes de distribució. Les microxarxes permeten als seus usuaris a funcionar aillats de la xarxa elèctrica, donant la possibilitat d'oferir una alta qualitat de servei. És en el mode de funcionament aïllat, particularment en microxarxes amb una altra proporció de generació basada en renovables, on es troben la major part de reptes tecnològics. Aquesta tesi es centra en tres d'aquests reptes de les xarxes aillades i dèbils: el disseny del control per a convertidors de potència per a sistemes d'emmagatzematge elèctric, el control descentralitzat de les microxarxes i també la millora en la qualitat de subministre elèctric en xarxes afectades per generació renovable. Aquestes temes es tracten des d'el punt de vista de la teoria de control de sistemes, aixó significa, abordar el problema elèctric, modelar-lo, i proposar estrategies de control avançades per millorar el funcionament de les microxarxes. Els sistemes d'emmagatzematge són un element vital per permetre l'operació aïllada de les microxarxes, tant a llarg com a curt termini. En aquesta tesi es proposen noves estratègies de control per millorar el funcionament dels convertidors d'electrònica de potència. A més del control del convertidor, també s'estudia la gestió i control de diferents sistemes d'emmagatzematge d'energia per a microxarxes. En particular, supercondensador i bateries s'han considerat per l'operació a curt i llarg termini respectivament. Seguidament, s'enfila el control de microxarxes aïllades. S'analitzen els controls típics per a microxarxes i es proposen noves eines de disseny que permeten garantitzar l'estabilitat. A més a més, metodologies per a obtenir el punt d'operació (el flux de potènica) per a xarxes amb control tipus "droop" també s'estudien i proposen. L'alta penetració de fonts d'energia renovables en xarxes de baixa tensió i febles resulta en pertorbacions elèctriques indesitjables. Aquesta problematica en la qualitat de subministrament s'aborda i es proposen solucions inovadores per mitigar els efectes negatius. En particular, s'ha proposat un nou sistema de suavitzat de potència que regula simltaneament l'estat de càrrega del sistema d'emmagatzematge i filtra la potencia fluctuant. El nou esquema de suavitzat de potència, juntament amb les estrategies proposades per als sistemes d'emmagatzematge elèctric s'han validat experimentalment en un banc de laboratori, emprant superconsadors i una bateria d'alta potència, disponibles a les instal·lacions de l'IREC.
63

Contribución a la regulación del tráfico en Redes ATM: aplicación al tráfico de vídeo

Cruz Llopis, Luis Javier de la 10 February 1999 (has links)
De entre los nuevos servicios ofrecidos por las actuales redes de banda ancha, los que incluyen la transmisión de secuencias de vídeo se convertirán en un futuro próximo en algunos de los más solicitados por los usuarios. Actualmente, estos servicios son principalmente transportados por canales de tasa binaria constante. Sin embargo, el tráfico de vídeo es por naturaleza variable, con lo que la utilización de recursos de red se vería sustancialmente mejorada utilizando canales de tasa variable.En este trabajo se plantea el problema de la transmisión eficiente de tráfico de vídeo comprimido MPEG de tasa variable sobre redes ATM de banda ancha. Para ello, en primer lugar se realiza un estudio de los algoritmos de compresión y de los mecanismos de transmisión más comúnmente utilizados en la actualidad. Además, se introducen algunas de las especificaciones que se encargan de estandarizar sistemas y servicios relacionados con la transmisión de vídeo, como el vídeo bajo demanda del ATM Forum o las especificaciones DAVIC.Posteriormente se lleva a cabo una caracterización del tráfico de vídeo, con objeto de entender la naturaleza del tráfico que se va a entregar a la red para su transmisión. Una de las principales características de este tipo de tráfico es la presencia de dependencias a corto y largo plazo. Estas dependencias son modeladas en este trabajo mediante un filtro ARIMA fraccional, que finalmente se propondrá para la generación artificial de tráfico de vídeo.Uno de los principales problemas inherentes al algoritmo de codificación MPEG es que la tasa binaria resultante presenta un comportamiento periódico que se repite cada cierto número de imágenes. Este comportamiento es perjudicial tanto cuando se trata de asignar eficientemente recursos de red como cuando se trata de multiplexar distintas secuencias de vídeo. Con objeto de eliminar este comportamiento sin introducir retardos adicionales, se propone un conformador predictivo de tráfico que es comparado con otros esquemas propuestos. La comparación se lleva a cabo por un lado mediante el estudio de los parámetros y funciones que definen la variabilidad de las secuencias estudiadas. Por otra parte, se analizan los recursos necesarios para la transmisión y multiplexación de fuentes de vídeo conformadas y sin conformar.Finalmente, con objeto de lograr una utilización lo más eficiente posible de los recursos de red, manteniendo una alta calidad de servicio, se propone un esquema de renegociación del ancho de banda asignado. Con este sistema, en momentos de menor actividad se liberarán recursos que podrán ser utilizados por otras conexiones, tanto de servicios de vídeo a tasa variable, como de servicios de tasa constante o de tasa disponible. Por el contrario, en momentos de gran actividad, se podrán solicitar más recursos a la red de forma que el usuario final no perciba ningún cambio en la calidad del servicio que se le está suministrando. El método presentado se basa en la caracterización previa del tráfico de vídeo mediante un modelo de fluidos bidimensional que captura las dependencias a corto y largo plazo del tráfico. Al ser utilizado para la transmisión de un tráfico que previamente ha sido conformado, el modelo debe capturar el comportamiento del tráfico promediado sobre un determinado número de imágenes. Además, permite la detección de los intervalos de distinta actividad, que se han denominado de actividad regular, de gran actividad y de actividad elevada.
64

Contribución a la transmisión de vídeo en redes IP con calidad de servicio

Alins Delgado, Juanjo 17 September 2004 (has links)
Hoy en día, entre los servicios más solicitados por los usuarios en las redes de comunicaciones, se encuentran aquellos que incorporan información multimedia. En Internet, es habitual que un gran número de páginas web incorporen imágenes, información de audio y en algunos casos, información de vídeo. Sin embargo, debido a que Internet sólo ofrece un servicio de entrega best-effort, la información audiovisual recibe el mismo tratamiento que el dispensado a cualquier otro tipo de datos poco sensibles al retardo temporal. Con el fin de desarrollar nuevos marcos de operación que permitan la diferenciación en el tratamiento de los servicios sobre redes basadas en IP, el IETF ha propuesto dos arquitecturas de red con calidad de servicio: IntServ y DifServ. De esta forma se pretende soportar adecuadamente la transmisión de flujos inelásticos de tasa variable mediante la ubicación de recursos especialmente dedicados al transporte de servicios con restricciones temporales acotadas. Actualmente, el tráfico de vídeo se transporta principalmente a través de canales de tasa binaria constante. Sin embargo, este tráfico es por naturaleza variable, con lo que la utilización de los recursos de red se vería sustancialmente mejorada utilizando canales de tasa variable.En este trabajo se plantea el problema de la transmisión eficiente de tráfico de vídeocomprimido MPEG de tasa variable sobre redes IP con calidad de servicio. Para ello, en primer lugar se realiza un, estudio de los algoritmos de compresión más comúnmente utilizados en la actualidad. A continuación, se realiza un análisis detallado de las distintas alternativas para la transmisión de vídeo en redes IP. En primera instancia se ha descrito la problemática del transporte de vídeo en redes de conmutación de paquetes sin garantías de servicio, discutiendo la necesidad de la aplicación de técnicas de control de tasa y suavizado de tráfico.Posteriormente se han introducido las nuevas arquitecturas IntServ y DiffServ especificadas para dar soporte a servicios con un nivel de calidad garantizado. Sobre estas arquitecturas se han discutido las posibles alternativas de transmisión de vídeo sobre redes IP con QoS y la adecuación de los esquemas de codificación de vídeo estandarizados que pueden ser aplicados sobre ellas.A partir de este estudio se ha puesto de relieve la necesidad de la caracterización del tráfico de vídeo ya que requiere de elevados anchos de banda que además fluctúan ampliamente a lo largo de la conexión. La caracterización del tráfico se ha llevado a cabo a través del modelado MMFP bidimensional de los flujos de vídeo VBR a nivel de GoP. El estudio se ha realizado con un amplio conjunto de secuencias codificadas VBR con diferentes niveles de calidad y resolución espacial. Los resultados han demostrado la aplicabilidad de este modelo de forma general sobre cualquier secuencia de vídeo con independencia de su resolución o nivel de degradación introducido en el proceso de codificación. Una de las principales contribuciones al modelado de estos servicios ha sido el desarrollo de una metodología de ajuste de los parámetros del modelo MMFP bidimensional que permite una automatización del proceso de caracterización del tráfico de vídeo.Una vez se ha alcanzado un conocimiento de comportamiento del tráfico de vídeo de calidad de imagen constante, se ha abordado su transmisión sobre redes IP con QoS. El marco de trabajo contempla la aplicación de mecanismos de renegociación y de asignación dinámica de recursos. El trafico de vídeo detasa variable es un ejemplo claro en el que un sistema de renegociaciones maximiza la eficiencia de los recursos de red. La gran variabilidad de tasa binaria exhibida por este tipo de tráfico y su grado de persistencia hacen apropiada la aplicación de técnicas de segmentación sobre las secuencias de vídeo. En este trabajo se han analizado diferentes esquemas de renegociación y se ha estudiado su aplicabilidad en el contexto de redes IP con QoS y facilidades de renegociación de recursos por conexión. Se han analizado las técnicas "Work-ahead buffering" donde se explota intensivamente el buffer del cliente para almacenar datos enviados "por adelantado". El estudio ha permitido derivar una nueva propuesta denominada 2-RCBR. Complementariamente, se ha derivado una nueva técnica de segmentación basada en el modelo MMFP bidimensional analizado, obteniéndose un esquema de segmentación genérico e independiente de la resolución y del factor de cuantificación utilizado ella codificación de las secuencias. Este método, que se ha denominado método de los umbrales genéricos, permite desarrollar una segmentación de una secuencia de vídeo de forma extraordinariamente simple con un elevado nivel de eficiencia. Por otro lado, teniendo en cuenta que se desea fijar una cota máxima del retardo extremo a extremo durante el servicio de video streaming, se ha propuesto una nueva técnica de segmentación basada en el retardo máximo aceptado, garantizando un retardo máximo dentro de la red IP para cada segmento transmitido.La última parte del trabajo ha desarrollado la arquitectura de transmisión escalada sobre redes IP. A raíz de los excelentes resultados obtenidos hasta el momento, se ha procedido a aplicar la misma metodología para la codificación escalable. Se ha caracterizado el flujo escalable de tasa variable mediante el modelo MMFP bidimensional y se han aplicado las técnicas de segmentación propuestas anteriormente. Los resultados obtenidos han seguido el comportamiento esperado, pudiéndose considerar satisfactorios.
65

Development and validation of the thermal diagnostics instrumentation in lisa pathfinder

Sanjuán Muñoz, Josep 29 September 2009 (has links)
This thesis focuses on the issues related to the thermal diagnostics aboard the space mission LISA Pathfinder (LPF). LPF is a technological mission devoted to put to test critical subsystems for the LISA mission. LISA will be the first space born gravitational wave (GW) observatory with the main objective of detecting GWs. GWs are ripples of the space-time geometry caused by acceleration of masses in an asymmetric way. Their detection requires put test masses (TMs) in an almost perfect inertial frame (or free fall).Non-inertial forces perturbing the TMs must be less than 6 fN/sqrt(Hz) in the frequency range of 0.1 mHz to 0.1 Hz and the noise in the measurement between the TMs (separated by 5 Gm) must be of 40 pm/sqrt(Hz) in the same band. To reduce the risks of a direct launch of LISA, ESA has decided to first launch LPF to put all the LISA technologies to test.The payload of LPF, the LISA Technology Package (LTP), contains two TMs placed in two cylinders inside a single spacecraft (SC) and an interferometric system that measures the relative distance between them. The SC isolates the TMs from the external disturbances but internal stray forces will still perturb the TMs. Their levels must be bounded not to challenge the free fall accuracy. One of these disturbances is temperature fluctuations and the aspects related to their measurement are the leitmotif of this thesis.In chapter 1 we have presented how temperature fluctuations couple into the key subsystems of the LTP to degrade their performance. The foreseen effects are radiation pressure, radiometer effect, temperature coefficient of optical components, etc. Onground estimations conclude that the temperature stability in the LTP must be less than 100 microK/sqrt(Hz) in the frequency range of 1 mHz to 30 mHz (LTP band). Since temperature fluctuations are an important issue in LPF and in LISA, a thermal diagnostic subsystem is needed aboard both missions.The task of the thermal diagnostics in the LTP is twofold: on the one hand, temperature fluctuations in different subsystems must be measured with noise levels of 10 microK/sqrt(Hz) in the LTP band. On the other hand, a set of heaters will generate heat pulses that in conjunction with temperature measurements will be used to estimate the actual coupling between temperature and systems performance. These actions will provide information on the behaviour of the system and will permit to identify the fraction of noise in the system coming from temperature issues. The main function of LPF, as precursor mission of LISA, is the understanding of all the noise sources in the system. This will provide clues to the final leap from LPF sensitivity to LISA one.The main investigations carried out during this thesis can be split into three main categories: (i) the design and validation of the LTP temperature measurement subsystem (TMS); (ii) the extension of the system to the LISA requirements; and (iii) the analysis of the in-flight thermal experiments in the LTP. The thesis is organised as follows: in chapter 2 we describe the designed electronics and the temperature sensors chosen. Aspects related to the coupling of the TMS with other subsystems nearby are discussed in chapter 3. Chapter 4 focuses on the design of the testbed needed for the validation of the TMS. Two different testbeds are described: one for the LTP measurement bandwidth (MBW) and another one for the LISA MBW, 0.1 mHz. In chapter 5 we present the results of the test campaigns: the prototype, the engineering model and the flight model systems were put to test. The results of the investigations in the LISA band are also shown. Chapter 6 contains investigations in view of LISA requirements to reduce excess noise at very low frequency and to reduce the floor noise of the measurement. Chapter 7 focuses on the thermal experiment on-board LPF: a set of thermal excitations are proposed to extract information of the thermal behaviour of the key subsystems of the LTP.
66

Marine applications of SAR polarimetry

Margarit Martín, Gerard 11 July 2007 (has links)
Els oceans mantenen una fràgil i complexa cadena que enllaça un alt nombre de factors biològics, sociològics i econòmics. Actualment, aquest ecosistema està amenaçat per l'activitat humana i uns dels punts més crítics és la sobreexplotació pesquera. Això ha despertat la consciencia de les autoritats d'arreu per a protegir l'entorn marí i assegurar, així, la seguretat i supervivència dels éssers humans. Tal objectiu demana el desenvolupament de polítiques de control que monitorin l'activitat dels vaixells. Fins l'actualitat, diferents propostes s'han estudiat per monitorar vaixells, com per exemple transpondedors, teledetecció òptica i sensors acústics passius. L'experiència en entorns reals ha demostrat que cap d'aquestes solucions és eficient. Una alternativa poden ser els Radars d'Obertura Sintètica (SAR). Aquests sistemes utilitzen les propietats de reflectivitat i dispersió dels vaixells per identificar-los amb independència de qualsevol fenomen atmosfèric i del cicle dia/nit. El sensors SAR sintetitzen una obertura més gran que la real permetent l'obtenció d'imatges de reflectivitat d'uns quants kilòmetres d'amplada amb una resolució de pocs metres.En la monitorització de vaixells, la tecnologia SAR ha demostrat unes bones prestacions per la detecció. Treu profit del fet que els vaixells dispersen més energia que el mar i, així, apareixen en les imatges com punts molt brillants. Però, la seva utilitat en la identificació de vaixells encara no està clara. Hi ha dues limitacions importants: 1) les resolucions dels sistemes actuals no semblen suficients per aïllar característiques geomètriques a partir de la informació de reflectivitat i 2) les distorsions que les signatures dels vaixells experimenten en entorns marins. Aquests problemes es poden resoldre parcialment si s'utilitzen dades SAR multidimensional. Aquest concepte es refereix al fet d'adquirir imatges SAR modificant un o més paràmetres del sistema. En la classificació de vaixells, hi ha dues opcions clares: 1) Polarimetria SAR (PolSAR) que utilitza les dues components polarimètriques de l'ona EM i 2) la Interferometria SAR que s'obté per la combinació de dues imatges SAR adquirides des de posicions molt properes. Per a una banda, la polarització de l'ona EM és una propietat intrínseca de l'ona que ajuda a aïllar estructures geomètriques particulars per mitjà de la teoria de descomposició de blancs (TD). Per l'altra, la interferometria treu profit de la diferencia de fase entre les dues imatges SAR per obtenir la tercera dimensió de l'escena.PolSAR and InSAR presenten grans possibilitats per la monitorització de vaixells ja que poden solucionar algunes de les limitacions dels mètodes clàssics. Desafortunadament, encara no han estat profundament estudiades a causa de les dificultats en obtenir dades reals validades. Això ha limitat el nombre d'estudis en aquesta temàtica. En aquest entorn, la tesi està orientada a avaluar fins a quin punt les tècniques PolSAR i InSAR poden ser útils per la monitorització de vaixells. Per a tal propòsit, s'han fixat quatre objectius importants:1. El desenvolupament d'un simulador SAR eficient que doni imatges realistes de vaixells i que solucioni el dèficit de dades reals en entorns marins.2. L'estudi de la dispersió dels vaixells que fixi els principals mecanismes de dispersió observats en imatges SAR i com es relacionen amb la geometria dels vaixells. 3. Un estudi de les prestacions de les tècniques actuals d'anàlisis de dades PolSAR en la classificació de vaixells.4. El desenvolupament d'un mètode nou i eficient per la identificació de vaixells.Al llarg de la tesis, els diferents punts seran estudiats i resolts. El desenvolupament de GRECOSAR, un simulador SAR de blancs complexes que dóna imatges de vaixells similars a les adquirides en entorns reals, ha estat essencial per estudiar les propietats de dispersió dels vaixells. Ha permès demostrar que els vaixells es poden distingir a partir del seu patró dispersiu, el qual és senzill i dominat per alguns dispersors guia que presenten una marcada estabilitat i potència de dispersió. Amb aquests resultats ha estat possible desenvolupar un nou mètode que pot identificar vaixells sota condicions d'observació adverses. Combina característiques polarimètriques i interferomètriques SAR (PolInSAR) per inferir estimacions 3D de la geometria dels vaixells. Diferents tests han demostrat que aquest mètode dóna una millor fiabilitat en la identificació que altres mètodes actualment disponibles. Malgrat tot, fixa uns requeriments tecnològics més elevats, sobretot en la resolució de les imatges i en les característiques PolInSAR. La nova generació de sensors SAR els poden cobrir. / Oceans support a complex and fragile chain that links a high number of biological, sociological and economical factors. In these days, this ecosystem is endangered by human activity and one of the main hot spots is overfishing. As a result, authorities worldwide have become aware about the necessity to law-protect the marine environment in order to assure the safety and sustenance of human beings. This demands the development of fisheries policy to monitor the activities of ships.Up to now, different vessel monitoring proposals have been considered, for instance transponders, optical remote sensing or passive acoustic sensors. The lessons learnt in real scenarios have shown that none of these solutions is efficient. A feasible option may be the so-called active Synthetic Aperture Radar (SAR) technology. It uses the reflectivity/scattering properties of vessels for basing the identification process with independence of any atmospheric phenomena and day/night cycle. SAR sensors synthesize an antenna aperture larger than the real one and this allows to acquire reflectivity images of some tens of kilometers wide with a resolution of few meters.In vessel monitoring, SAR imagery has proven good performance for vessel detection. They take profit of the fact that vessels normally backscatter more power than the sea and, hence, they appear in the images as bright spots. But their usefulness in vessel identification has not been established yet. There are two main limitations, namely: 1) the resolution of current systems that appears to be not enough for isolating geometrical features from the reflectivity information of SAR images and 2) the distortions that vessel' signatures experiment within sea scenarios. Such problems can be solved up to certain extend if multidimensional SAR data is used. This concept refers to the possibility to acquire different SAR images by modifying one or more imaging parameters. In the scope of vessel classification, there are two main options, namely: 1) SAR polarimetry (PolSAR) that refers to the usage of the two polarimetric components of the EM wave and 2) SAR interferometry (InSAR) derived by combining two SAR images acquired from slightly different positions. On the one hand, the polarization of an EM wave is an intrinsic wave property that helps on identifying specific geometrical structures via Target Decomposition (TD) theory. On the other hand, Interferometry takes profit of the phase difference between the two SAR images to retrieve the third dimension of the scene.PolSAR and InSAR have great potentialities for supporting vessel monitoring as they can overcome some of the limitations of classical methods. Unfortunately, they have not been exploited yet due to the difficulties on having at one's disposal real data with reliable ground-truth. This has limited the number of works tackling such issue. In this framework, the current thesis is focused to evaluate up to which extend PolSAR and InSAR imagery are reliable for vessel monitoring. For such purpose, four main goals are proposed, namely:1. The development of an efficient SAR simulation environment that provides realistic vessel SAR images and overcomes the current data deficiency related to marine scenarios.2. The study of vessel scattering to fix the main polarimetric scattering mechanisms observed in vessel SAR images and how they are related with the geometries of vessels.3. A performance study of current analysis tools of PolSAR data in vessel classification.4. The development of a novel and efficient methodology for vessel identification.Along the thesis, the different points are studied and solved. The development of GRECOSAR, a SAR simulator of complex targets able to provide vessel images similar to those obtained in real scenarios, has been essential for studying the scattering properties of vessels. It has allowed to show that vessels can be distinguished by means of their scattering pattern, which appear to be not so complex and dominated by some guide scatters that present a marked reflectivity stability and scattered power. With these results, a new approach able to identify vessels even under adverse observation conditions has been developed. It combines polarimetric and interferometric SAR (PolInSAR) capabilities to retrieve 3D estimates of the geometry of ships. Different tests have shown that the proposed method provides better identification confidence than other available methods. However, it demands higher technological requirements in terms of image resolution and PolInSAR features. The new generation of SAR sensors may fulfill them.
67

Contributions to QoS and energy efficiency in wi-fi networks

Camps Mur, Daniel 19 January 2012 (has links)
The Wi-Fi technology has been in the recent years fostering the proliferation of attractive mobile computing devices with broadband capabilities. Current Wi-Fi radios though severely impact the battery duration of these devices thus limiting their potential applications. In this thesis we present a set of contributions that address the challenge of increasing energy efficiency in Wi-Fi networks. In particular, we consider the problem of how to optimize the trade-off between performance and energy effciency in a wide variety of use cases and applications. In this context, we introduce novel energy effcient algorithms for real-time and data applications, for distributed and centralized Wi-Fi QoS and power saving protocols and for Wi-Fi stations and Access Points. In addition, the di¿erent algorithms presented in this thesis adhere to the following design guidelines: i) they are implemented entirely at layer two, and can hence be easily re-used in any device with a Wi-Fi interface, ii) they do not require modi¿cations to current 802.11 standards, and can hence be readily deployed in existing Wi-Fi devices, and iii) whenever possible they favor client side solutions, and hence mobile computing devices implementing them can benefit from an increased energy efficiency regardless of the Access Point they connect to. Each of our proposed algorithms is thoroughly evaluated by means of both theoretical analysis and packet level simulations. Thus, the contributions presented in this thesis provide a realistic set of tools to improve energy efficiency in current Wi-Fi networks.
68

Controlador de histéresis de bajo coste para convertidos buck síncrono multifase

Borrell Sanz, Angel 12 July 2012 (has links)
The multiphase synchronous buck converter is universally used today for powering low voltage, high current and high slew-rate loads, such as CPUs and other high performance digital ICs. This converter demands control techniques with high dynamical response in order to face large and fast load transients. In this regard, hysteretic regulators represent an excellent option due to their immediate reaction, unlimited duty cycle and outstanding capacity for handling large signal regimes. The main contributions of much published work in the field of multiphase hysteretic controllers are current sharing and phase interleaving. However, the author is not aware of any studies describing a control scheme that integrates the main control functions for powering such demanding loads: output voltage regulation, adaptive voltage positioning, current sharing and phase interleaving. Nor is there a design methodology based on the closed-loop output impedance. This design would optimize the output voltage transient response and, in this way, the entire voltage tolerance window of the processor would be exploited. Thus, this research work presents a novel hysteretic controller for a multi-phase synchronous buck converter supplying low voltage, high current and high slew-rate loads along with a design methodology based on closed-loop output impedance analysis. The single-phase hysteretic controller is the start point for this research work. Several authors have extensively treated the single-phase hysteretic controller. In this regard, a review of a low-cost single-phase control scheme is carried out first. The main feature of this controller is the lack of current sensing and processing circuitry in order to accomplish the adaptive voltage regulation. Then, the influence of variations of the inductor and output capacitor and the control parameters on the output impedance is studied. This has allowed for establishing a correspondence between each of the control parameters and the output filter components. The review finishes by implementing a synchronization system to achieve fixed switching frequency in steady state while maintaining the instantaneous reaction and optimal output-voltage response during transients. At this point, a novel low-cost hysteretic controller for multiphase synchronous buck converters is presented. Two design alternatives for the controller are proposed. The first uses an equivalent single-phase converter to design the control parameters. This approximation is valid as long as the deviations between the phases of the converter are within the usual limits (+/- 15 %). The second does the same considering the exact model of the converter, achieving resistive output impedance regardless of the differences that exist between the phases. Simulation and experimental results are reported in order to validate the features of the novel control scheme. From a practical point of view, the lack of current sensing and processing circuitry in the controller allow for a simple and low-cost implementation of the adaptive voltage positioning and current sharing with outstanding performance. The injection of an external synchronization signal has been proved to be a simple alternative in order to implement fixed switching frequency and phase interleaving operation. Finally, the proposed controller achieves similar characteristics to the high performance controllers intended for powering low voltage, high current and fast transient loads, but with the additional advantage of simplicity and low-cost circuit implementation. / Actualmente, el convertidor buck síncrono multifase es universalmente utilizado para la alimentación de cargas dinámicas de baja tensión y elevada corriente como CPUs y otros circuitos integrados digitales de altas prestaciones. Este convertidor exige de técnicas de control con alta respuesta dinámica para hacer frente a los grandes y rápidos transitorios de carga a los que es sometido. A este respecto, los reguladores de histéresis representan una excelente opción debido a su reacción inmediata, ciclo de trabajo ilimitado y excepcional capacidad para manejar régimen de gran señal. Las principales aportaciones de la mayor parte de trabajos publicados en el campo de los controladores de histéresis multifase son distribución de corriente entre las fases y funcionamiento entrelazado. Sin embargo, el autor no tiene conocimiento de estudios que describan un esquema de control que integre las principales funciones de control para la alimentación de tales exigentes cargas: regulación de tensión de salida con posicionamiento adaptativo, distribución de corriente y funcionamiento entrelazado. Tampoco existe una metodología de diseño basada en la impedancia de salida de lazo cerrado. Este diseño optimiza la respuesta transitoria de la tensión de salida y, de este modo, se puede aprovechar toda la ventana de tolerancia del procesador. Por lo tanto, este trabajo de investigación presenta un novedoso controlador de histéresis para convertidor síncrono multifase destinado a alimentar cargas dinámicas de baja tensión y alta corriente, junto con una metodología de diseño basada en el análisis de la impedancia de salida de lazo cerrado. El controlador de la histéresis de una sola fase es el punto de partida de este trabajo de investigación. Varios autores han tratado ampliamente el controlador de histéresis de una sola fase. En este sentido, en primer lugar se lleva a cabo una revisión de un esquema de control de bajo coste de una sola fase. La característica principal de este controlador es la ausencia de circuitos de sensado y procesado de corriente para lograr la regulación de tensión adaptativa. El estudio de la influencia de las variaciones del inductor, condensador de salida y los parámetros de control y los componentes del filtro de salida. La revisión termina implementando un sistema de sincronización para lograr frecuencia fija de comunicación en estado estacionario, que mantiene la reacción instantánea y la respuesta transitoria óptima de la tensión de salida. Llegado a este punto, se presenta un controlador de histéresis de bajo coste para convertidores buck síncrono multifase. Se proponen dos alternativas de diseño para controlador. La primer a utiliza un equivalente de convertidor de una sola fase para diseñar los parámetros de control. Esta aproximación es válida siempre y cuando las desviaciones entre las fases del convertidor están dentro de los límites habituales (+/-15%). La segunda hace lo propio teniendo en cuenta el modelo exacto del convertidor, logrando impedancia de salida resistiva independientemente de las diferencias que existan entre las fases. Se presentan los resultados de simulación y experimentales con el fin de validar las características del esquema de control propuesto. Desde un punto de vista práctico, la ausencia de circuitos de sensado y procesado de corriente en el controlador permiten una implementación sencilla y de bajo coste para las funciones de regulación de tensión con posicionamiento adaptativo de reparto de corriente con buen rendimiento. La inyección de una señal de sincronización externa demuestra ser una alternativa simple a fin de obtener frecuencia fija de conmutación y funcionamiento entrelazado de las fases. Finalmente, el controlador propuesto alcanza características similares alos controladores destinados a la alimentación de cargas de baja tensión y alta dinámica con la ventaja adicional de la simplicidad y el bajo coste de implementación.
69

GNSS array-based acquisition: theory and implementation

Arribas Lázaro, Javier 28 June 2012 (has links)
This Dissertation addresses the signal acquisition problem using antenna arrays in the general framework of Global Navigation Satellite Systems (GNSS) receivers. The term GNSS classi es those navigation systems based on a constellation of satellites, which emit ranging signals useful for positioning. Although the American GPS is already available, which coexists with the renewed Russian Glonass, the forthcoming European contribution (Galileo) along with the Chinese Compass will be operative soon. Therefore, a variety of satellite constellations and signals will be available in the next years. GNSSs provide the necessary infrastructures for a myriad of applications and services that demand a robust and accurate positioning service. The positioning availability must be guaranteed all the time, specially in safety-critical and mission-critical services. Examining the threats against the service availability, it is important to take into account that all the present and the forthcoming GNSSs make use of Code Division Multiple Access (CDMA) techniques. The ranging signals are received with very low precorrelation signal-to-noise ratio (in the order of ���22 dB for a receiver operating at the Earth surface). Despite that the GNSS CDMA processing gain o ers limited protection against Radio Frequency interferences (RFI), an interference with a interference-to-signal power ratio that exceeds the processing gain can easily degrade receivers' performance or even deny completely the GNSS service, specially conventional receivers equipped with minimal or basic level of protection towards RFIs. As a consequence, RFIs (either intentional or unintentional) remain as the most important cause of performance degradation. A growing concern of this problem has appeared in recent times. Focusing our attention on the GNSS receiver, it is known that signal acquisition has the lowest sensitivity of the whole receiver operation, and, consequently, it becomes the performance bottleneck in the presence of interfering signals. A single-antenna receiver can make use of time and frequency diversity to mitigate interferences, even though the performance of these techniques is compromised in low SNR scenarios or in the presence of wideband interferences. On the other hand, antenna arrays receivers can bene t from spatial-domain processing, and thus mitigate the e ects of interfering signals. Spatial diversity has been traditionally applied to the signal tracking operation of GNSS receivers. However, initial tracking conditions depend on signal acquisition, and there are a number of scenarios in which the acquisition process can fail as stated before. Surprisingly, to the best of our knowledge, the application of antenna arrays to GNSS signal acquisition has not received much attention. This Thesis pursues a twofold objective: on the one hand, it proposes novel arraybased acquisition algorithms using a well-established statistical detection theory framework, and on the other hand demonstrates both their real-time implementation feasibility and their performance in realistic scenarios. The Dissertation starts with a brief introduction to GNSS receivers fundamentals, providing some details about the navigation signals structure and the receiver's architecture of both GPS and Galileo systems. It follows with an analysis of GNSS signal acquisition as a detection problem, using the Neyman-Pearson (NP) detection theory framework and the single-antenna acquisition signal model. The NP approach is used here to derive both the optimum detector (known as clairvoyant detector ) and the sov called Generalized Likelihood Ratio Test (GLRT) detector, which is the basis of almost all of the current state-of-the-art acquisition algorithms. Going further, a novel detector test statistic intended to jointly acquire a set of GNSS satellites is obtained, thus reducing both the acquisition time and the required computational resources. The eff ects of the front-end bandwidth in the acquisition are also taken into account. Then, the GLRT is extended to the array signal model to obtain an original detector which is able to mitigate temporally uncorrelated interferences even if the array is unstructured and moderately uncalibrated, thus becoming one of the main contributions of this Dissertation. The key statistical feature is the assumption of an arbitrary and unknown covariance noise matrix, which attempts to capture the statistical behavior of the interferences and other non-desirable signals, while exploiting the spatial dimension provided by antenna arrays. Closed form expressions for the detection and false alarm probabilities are provided. Performance and interference rejection capability are modeled and compared both to their theoretical bound. The proposed array-based acquisition algorithm is also compared to conventional acquisition techniques performed after blind null-steering beamformer approaches, such as the power minimization algorithm. Furthermore, the detector is analyzed under realistic conditions, accounting for the presence of errors in the covariance matrix estimation, residual Doppler and delay errors, and signal quantization e ects. Theoretical results are supported by Monte Carlo simulations. As another main contribution of this Dissertation, the second part of the work deals with the design and the implementation of a novel Field Programmable Gate Array (FPGA)-based GNSS real-time antenna-array receiver platform. The platform is intended to be used as a research tool tightly coupled with software de ned GNSS receivers. A complete signal reception chain including the antenna array and the multichannel phase-coherent RF front-end for the GPS L1/ Galileo E1 was designed, implemented and tested. The details of the digital processing section of the platform, such as the array signal statistics extraction modules, are also provided. The design trade-o s and the implementation complexities were carefully analyzed and taken into account. As a proof-of-concept, the problem of GNSS vulnerability to interferences was addressed using the presented platform. The array-based acquisition algorithms introduced in this Dissertation were implemented and tested under realistic conditions. The performance of the algorithms were compared to single antenna acquisition techniques, measured under strong in-band interference scenarios, including narrow/wide band interferers and communication signals. The platform was designed to demonstrate the implementation feasibility of novel array-based acquisition algorithms, leaving the rest of the receiver operations (mainly, tracking, navigation message decoding, code and phase observables, and basic Position, Velocity and Time (PVT) solution) to a Software De ned Radio (SDR) receiver running in a personal computer, processing in real-time the spatially- ltered signal sample stream coming from the platform using a Gigabit Ethernet bus data link. In the last part of this Dissertation, we close the loop by designing and implementing such software receiver. The proposed software receiver targets multi-constellation/multi-frequency architectures, pursuing the goals of e ciency, modularity, interoperability, and exibility demanded by user domains that require non-standard features, such as intermediate signals or data extraction and algorithms interchangeability. In this context, we introduce an open-source, real-time GNSS software de ned receiver (so-named GNSS-SDR) that contributes with several novel features such as the use of software design patterns and shared memory techniques to manage e ciently the data ow between receiver blocks, the use of hardware-accelerated instructions for time-consuming vector operations like carrier wipe-o and code correlation, and the availability to compile and run on multiple software platforms and hardware architectures. At this time of writing (April 2012), the receiver enjoys of a 2-dimensional Distance Root Mean Square (DRMS) error lower than 2 meters for a GPS L1 C/A scenario with 8 satellites in lock and a Horizontal Dilution Of Precision (HDOP) of 1.2. / Esta tesis aborda el problema de la adquisición de la señal usando arrays de antenas en el marco general de los receptores de Sistemas Globales de Navegación por Satélite (GNSS). El término GNSS engloba aquellos sistemas de navegación basados en una constelación de satélites que emiten señales útiles para el posicionamiento. Aunque el GPS americano ya está disponible, coexistiendo con el renovado sistema ruso GLONASS, actualmente se está realizando un gran esfuerzo para que la contribución europea (Galileo), junto con el nuevo sistema chino Compass, estén operativos en breve. Por lo tanto, una gran variedad de constelaciones de satélites y señales estarán disponibles en los próximos años. Estos sistemas proporcionan las infraestructuras necesarias para una multitud de aplicaciones y servicios que demandan un servicio de posicionamiento confiable y preciso. La disponibilidad de posicionamiento se debe garantizar en todo momento, especialmente en los servicios críticos para la seguridad de las personas y los bienes. Cuando examinamos las amenazas de la disponibilidad del servicio que ofrecen los GNSSs, es importante tener en cuenta que todos los sistemas presentes y los sistemas futuros ya planificados hacen uso de técnicas de multiplexación por división de código (CDMA). Las señales transmitidas por los satélites son recibidas con una relación señal-ruido (SNR) muy baja, medida antes de la correlación (del orden de -22 dB para un receptor ubicado en la superficie de la tierra). A pesar de que la ganancia de procesado CDMA ofrece una protección inherente contra las interferencias de radiofrecuencia (RFI), esta protección es limitada. Una interferencia con una relación de potencia de interferencia a potencia de la señal que excede la ganancia de procesado puede degradar el rendimiento de los receptores o incluso negar por completo el servicio GNSS. Este riesgo es especialmente importante en receptores convencionales equipados con un nivel mínimo o básico de protección frente las RFIs. Como consecuencia, las RFIs (ya sean intencionadas o no intencionadas), se identifican como la causa más importante de la degradación del rendimiento en GNSS. El problema esta causando una preocupación creciente en los últimos tiempos, ya que cada vez hay más servicios que dependen de los GNSSs Si centramos la atención en el receptor GNSS, es conocido que la adquisición de la señal tiene la menor sensibilidad de todas las operaciones del receptor, y, en consecuencia, se convierte en el factor limitador en la presencia de señales interferentes. Un receptor de una sola antena puede hacer uso de la diversidad en tiempo y frecuencia para mitigar las interferencias, aunque el rendimiento de estas técnicas se ve comprometido en escenarios con baja SNR o en presencia de interferencias de banda ancha. Por otro lado, los receptores basados en múltiples antenas se pueden beneficiar del procesado espacial, y por lo tanto mitigar los efectos de las señales interferentes. La diversidad espacial se ha aplicado tradicionalmente a la operación de tracking de la señal en receptores GNSS. Sin embargo, las condiciones iniciales del tracking dependen del resultado de la adquisición de la señal, y como hemos visto antes, hay un número de situaciones en las que el proceso de adquisición puede fallar. En base a nuestro grado de conocimiento, la aplicación de los arrays de antenas a la adquisición de la señal GNSS no ha recibido mucha atención, sorprendentemente. El objetivo de esta tesis doctoral es doble: por un lado, proponer nuevos algoritmos para la adquisición basados en arrays de antenas, usando como marco la teoría de la detección de señal estadística, y por otro lado, demostrar la viabilidad de su implementación y ejecución en tiempo real, así como su medir su rendimiento en escenarios realistas. La tesis comienza con una breve introducción a los fundamentos de los receptores GNSS, proporcionando algunos detalles sobre la estructura de las señales de navegación y la arquitectura del receptor aplicada a los sistemas GPS y Galileo. Continua con el análisis de la adquisición GNSS como un problema de detección, aplicando la teoría del detector Neyman-Pearson (NP) y el modelo de señal de una única antena. El marco teórico del detector NP se utiliza aquí para derivar tanto el detector óptimo (conocido como detector clarividente) como la denominada Prueba Generalizada de la Razón de Verosimilitud (en inglés, Generalized Likelihood Ratio Test (GLRT)), que forma la base de prácticamente todos los algoritmos de adquisición del estado del arte actual. Yendo más lejos, proponemos un nuevo detector diseñado para adquirir simultáneamente un conjunto de satélites, por lo tanto, obtiene una reducción del tiempo de adquisición y de los recursos computacionales necesarios en el proceso, respecto a las técnicas convencionales. El efecto del ancho de banda del receptor también se ha tenido en cuenta en los análisis. A continuación, el detector GLRT se extiende al modelo de señal de array de antenas para obtener un detector nuevo que es capaz de mitigar interferencias no correladas temporalmente, incluso utilizando arrays no estructurados y moderadamente descalibrados, convirtiéndose así en una de las principales aportaciones de esta tesis. La clave del detector es asumir una matriz de covarianza de ruido arbitraria y desconocida en el modelo de señal, que trata de captar el comportamiento estadístico de las interferencias y otras señales no deseadas, mientras que utiliza la dimensión espacial proporcionada por los arrays de antenas. Se han derivado las expresiones que modelan las probabilidades teóricas de detección y falsa alarma. El rendimiento del detector y su capacidad de rechazo a interferencias se han modelado y comparado con su límite teórico. El algoritmo propuesto también ha sido comparado con técnicas de adquisición convencionales, ejecutadas utilizando la salida de conformadores de haz que utilizan algoritmos de filtrado de interferencias, como el algoritmo de minimización de la potencia. Además, el detector se ha analizado bajo condiciones realistas, representadas con la presencia de errores en la estimación de covarianzas, errores residuales en la estimación del Doppler y el retardo de señal, y los efectos de la cuantificación. Los resultados teóricos se apoyan en simulaciones de Monte Carlo. Como otra contribución principal de esta tesis, la segunda parte del trabajo trata sobre el diseño y la implementación de una nueva plataforma para receptores GNSS en tiempo real basados en array de antenas que utiliza la tecnología de matriz programable de puertas lógicas (en ingles Field Programmable Gate Array (FPGA)). La plataforma está destinada a ser utilizada como una herramienta de investigación estrechamente acoplada con receptores GNSS definidos por software. Se ha diseñado, implementado y verificado la cadena completa de recepción, incluyendo el array de antenas y el front-end multi-canal para las señales GPS L1 y Galileo E1. El documento explica en detalle el procesado de señal que se realiza, como por ejemplo, la implementación del módulo de extracción de estadísticas de la señal. Los compromisos de diseño y las complejidades derivadas han sido cuidadosamente analizadas y tenidas en cuenta. La plataforma ha sido utilizada como prueba de concepto para solucionar el problema presentado de la vulnerabilidad del GNSS a las interferencias. Los algoritmos de adquisición introducidos en esta tesis se han implementado y probado en condiciones realistas. El rendimiento de los algoritmos se comparó con las técnicas de adquisición basadas en una sola antena. Se han realizado pruebas en escenarios que contienen interferencias dentro de la banda GNSS, incluyendo interferencias de banda estrecha y banda ancha y señales de comunicación. La plataforma fue diseñada para demostrar la viabilidad de la implementación de nuevos algoritmos de adquisición basados en array de antenas, dejando el resto de las operaciones del receptor (principalmente, los módulos de tracking, decodificación del mensaje de navegación, los observables de código y fase, y la solución básica de Posición, Velocidad y Tiempo (PVT)) a un receptor basado en el concepto de Radio Definida por Software (SDR), el cual se ejecuta en un ordenador personal. El receptor procesa en tiempo real las muestras de la señal filltradas espacialmente, transmitidas usando el bus de datos Gigabit Ethernet. En la última parte de esta Tesis, cerramos ciclo diseñando e implementando completamente este receptor basado en software. El receptor propuesto está dirigido a las arquitecturas de multi-constalación GNSS y multi-frecuencia, persiguiendo los objetivos de eficiencia, modularidad, interoperabilidad y flexibilidad demandada por los usuarios que requieren características no estándar, tales como la extracción de señales intermedias o de datos y intercambio de algoritmos. En este contexto, se presenta un receptor de código abierto que puede trabajar en tiempo real, llamado GNSS-SDR, que contribuye con varias características nuevas. Entre ellas destacan el uso de patrones de diseño de software y técnicas de memoria compartida para administrar de manera eficiente el uso de datos entre los bloques del receptor, el uso de la aceleración por hardware para las operaciones vectoriales más costosas, como la eliminación de la frecuencia Doppler y la correlación de código, y la disponibilidad para compilar y ejecutar el receptor en múltiples plataformas de software y arquitecturas de hardware. A fecha de la escritura de esta Tesis (abril de 2012), el receptor obtiene un rendimiento basado en la medida de la raíz cuadrada del error cuadrático medio en la distancia bidimensional (en inglés, 2-dimensional Distance Root Mean Square (DRMS) error) menor de 2 metros para un escenario GPS L1 C/A con 8 satélites visibles y una dilución de la precisión horizontal (en inglés, Horizontal Dilution Of Precision (HDOP)) de 1.2.
70

Micromachined polymer based components for highly integrated millimeterwave subsystems

Jaimes Vera, Edith Aline 16 March 2012 (has links)
La región de microondas en el espectro electromagnético tiene propiedades únicas que le permiten a las señales propagarse a través de la atmósfera bajo casi cualquier condición climática, ésta es la razón por la cual los sistemas de microondas han tenido un enorme impacto sobre la sociedad. En los últimos años se ha presentado una importante expansión en las comunicaciones móviles y en las redes de área local, emergiendo nuevas aplicaciones a frecuencias micro/milimétricas, tales como: la transmisión satelital a 35 GHz, las redes de área local de banda ancha a 60 GHz, comunicación entre vehículos a 63 GHz o en radares para evitar colisiones entre vehículos a 77 GHz. A medida que estas aplicaciones han emigrado a frecuencias más elevadas, las limitaciones de las tecnologías convencionales han sido visibles. Por lo cual en los últimos años se ha presentado un creciente interés en el desarrollo de nuevas técnicas de fabricación para la implementación de dispositivos de microondas; las cuales ofrezcan un mejor rendimiento del dispositivo a la vez que una reducción en sus dimensiones y en los costos de fabricación. El principal objetivo de este trabajo ha sido la implementación de dispositivos de filtrado en un amplio rango de frecuencias (banda X, U y V). Las topologías aquí presentadas son novedosas al introducir resonadores y líneas de alimentación suspendidas en aire, donde el uso de aire como dieléctrico permite obtener un factor de calidad mayor. Además el proceso de fabricación es relativamente simple y de bajo costo, ofreciendo estructuras compactas las cuales pueden ser altamente integradas. En la implementación de los dispositivos se utilizaron técnicas de maquinado convencional para los diseños en la banda X y técnicas de micromaquinado en SU-8 en los dispositivos de las bandas U y V. Las estructuras para la banda X fabricadas mediante maquinado convencional sirvieron como validación de las topologías a frecuencias más elevadas. Las estructuras diseñadas han demostrado la viabilidad de las topologías para un amplio rango de frecuencias, obteniendo resultados satisfactorios en cuanto a las prestaciones del dispositivo. / The microwave region in the electromagnetic spectrum has properties that allow signals to propagate through the atmosphere under almost any weather condition, this is the reason why microwave systems have had an enormous impact on society. In recent years there has been a major expansion in mobile communications and local area networks, emerging new applications at micro/millimeterwave frequencies, such as: satellite transmission at 35 GHz, wideband local area networks at 60 GHz, communication among vehicles at 63 GHz or vehicular collision avoidance radar at 77 GHz. As these applications have migrated to higher frequencies, the limitations of conventional technologies have been visible. Therefore in recent years there has been a growing interest in the development of new manufacturing techniques for the implementation of microwave devices; which offer better device performance as well as a reduction in the size and manufacturing costs. The main objective of this work has been the implementation of filtering devices in a wide range of frequencies (X, U and V-band). The topologies presented are novel introducing resonators and air suspended feed lines, where the use of air as dielectric allows a higher quality factor. Besides manufacturing process is relatively simple and inexpensive, providing compact structures which can be highly integrated. In the implementation of the devices were used conventional machining techniques for X-band designs and micromachining techniques in SU-8 for U and V-band desings. The X-band structures manufactured by conventional machining served as validation of the topologies at higher frequencies. The designed structures have shown the feasibility of the topologies for a wide range of frequencies, with satisfactory results regarding the performance of the device.

Page generated in 0.1076 seconds