• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 19
  • 4
  • Tagged with
  • 46
  • 35
  • 30
  • 26
  • 25
  • 13
  • 13
  • 12
  • 10
  • 9
  • 9
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Sistema de localització en interiors basat en una malla d'emissors d'ultrasons codificat

Escudero Costa, Francesc 14 July 2008 (has links)
En l'actualitat, determinar la posició d'un mòbil en interiors de locals en els que no es rep el senyal GPS i per on hi circulen persones habitualment, no es pot resoldre si no és amb un error mínim d'un metre i mig. La present tesi descriu la solució que permet reduir aquest error fins a fer-lo menor de 30cm, gràcies al desplegament d'una xarxa d'emissors d'ultrasons en el sostre del local, alimentats per un sincronisme comú. Cadascun d'aquests emissors està configurat amb un número identificador únic, identificador que cada emissor emet sobre una portadora ultrasònica de 40Khz, tot emprant una modulació d'amplitud. Els receptors que circulen per sota dels emissors reben els codis d'aquells que cauen dins del seu radi de cobertura, tradueixen el retard temporal en distància i obtenen la seva posició per triangulació. Atès que els receptors i els emissors no estan sincronitzats i que la velocitat del so a l'aire varia en funció de la temperatura i la resta de condicions ambientals, s'ha hagut d'implementar un algorisme d'aproximació successiva basat en el fet que la coordenada z del receptor és coneguda i fixada. Aquest algorisme és capaç de resoldre la desincronia entre emissors i receptors emprant tres emissors i eliminar les influencies ambientals si disposa de quatre emissors.La tesi es completa amb l'anàlisi de les alternatives rivals i amb un estudi sobre els efectes que l'exposició perllongada als ultrasons pot causar en persones i animals domèstics.Cal esmentar que aquesta solució es troba en fase d'acceptació de la patent. / En la actualidad, determinar la posición de un objeto móvil en interiores de locales en los que no se recibe la señal GPS y por donde circulan personas habitualmente, no se puede resolver si no es con un error mínimo de un metro y medio. La presente tesis describe la solución que permite reducir este error hasta hacerlo menor de 30 cm, gracias al despliegue de una red de emisores de ultrasonidos en el techo del local, alimentados por un sincronismo común. Cada uno de estos emisores está configurado con un número identificador único, identificador que cada emisor emite sobre una portadora ultrasónica de 40Khz, utilizando una modulación de amplitud. Los receptores que circulan por debajo de los emisores reciben los códigos de aquellos que caen dentro de su radio de cobertura, traducen el retardo temporal en distancia y obtienen su posición por triangulación. Dado que los receptores y los emisores no están sincronizados y que la velocidad del sonido en el aire varía en función de la temperatura y el resto de condiciones ambientales, se ha tenido que implementar un algoritmo de aproximación sucesiva basado en el hecho que la coordenada z del receptor es conocida y fichada. Este algoritmo es capaz de de resolver la falta de sincronización entre emisores y receptores utilizando tres emisores y eliminar las influencias ambientales si dispone de cuatro emisores. La tesis se completa con el análisis de las alternativas rivales y con un estudio sobre los efectos que la exposición prolongada a los ultrasonidos puede causar en personas y animales domésticos. Se debe anotar que esta solución se encuentra en fase de aceptación de la patente. / At present, determining the position of a movable object inside a local which does not receive the GPS signal is only possible with the minimum margin error of one and a half meters. This thesis describes a solution which permits a reduction in the margin of error, decreasing it to 30cm, thanks to the creation of a network of ultrasounds emitters, supplied by a common synchronism, in the ceiling of the building. Each emitter is configured with a unique identification code that each emitter emits on an ultrasonic carrier of 40 Khz, using amplitude modulation.Receptors circulating below the emitters receive the codes of the emitters which are within each coverage area, covert the temporary delay into distance and obtain its position by triangulation. Given the fact that the receptors and the emitters are not synchronized and that the sonic speed in the air varies depending on the temperature and other environmental conditions, we have had to implement an algorithm of subsequent approximation based on the fact that coordinate z of the receiver is recognised and set. This algorithm solves the problem of the lack of synchronization between emitters and receptors using three emitters and it also deletes the environmental influences in the case of the receptor having four emitters. The thesis is completed with the analysis of the alternatives available and a study on the possible effects of prolonged exposure to ultrasounds on people and domestic animals. The fact that this solution is in currently awaiting patent approval should be underlined.
22

Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abast

Careglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
23

Payload data handling, telemetry and data compression systems for Gaia.

Portell i de Mora, Jordi 26 September 2005 (has links)
Gaia, la nova missió astromètrica de la ESA amb un llançament previst pel 2011, observarà més de mil milions d'estels i altres objectes amb una exactitud sense precedents. Els seus ambiciosos objectius desbanquen completament les missions rivals d'altres agències. Al final de la seva vida útil es generarà el major i més complert mapa tridimensional de la nostra Galàxia.Una missió com aquesta suposa grans esforços tecnològics i de disseny ja que caldrà detectar, seleccionar i mesurar centenars d'estels cada segon, per enviar-ne posteriorment les dades cap a la Terra -a més d'un milió i mig de quilòmetres. Hem centrat el treball d'aquesta tesi en aquesta vessant de la missió, proposant dissenys pels sistemes de gestió de dades, de telemetria científica, i de compressió de dades. El nostre objectiu final és fer possible la transmissió a l'estació terrestre d'aquesta immensa quantitat de dades generades pels instruments, tenint en compte la limitada capacitat del canal de comunicacions. Això requereix el disseny d'un sistema de compressió de dades sense pèrdues que ofereixi les millors relacions de compressió i garanteixi la integritat de les dades transmeses. Tot plegat suposa un gran repte pels mètodes de la teoria de la informació i pel disseny de sistemes de compressió de dades.Aquests aspectes tecnològics encara estaven per estudiar o bé només es disposava d'esborranys preliminars -ja que la missió mateixa estava en una etapa preliminar en quan varem començar aquesta tesi. Per tant, el nostre treball ha estat rebut amb entusiasme per part de científics i enginyers del projecte.En primer lloc hem revisat l'entorn operacional del nostre estudi, descrit a la primera part de la tesi. Això inclou els diversos sistemes de referència i les convencions que hem proposat per tal d'unificar les mesures, referències a dades i dissenys. Aquesta proposta s'ha utilitzat com a referència inicial en la missió i actualment altres científics l'estan ampliant i millorant. També hem recopilat les principals característiques de l'instrument astromètric (en el qual hem centrat el nostre estudi) i revisat les seves directrius operacionals, la qual cosa també s'ha tingut en compte en altres equips.A la segona part de la tesi descrivim la nostra proposta pel sistema de gestió de dades de la càrrega útil de Gaia, la qual ha estat utilitzada per presentar els requeriments científics als equips industrials i representa en sí mateixa una opció d'implementació viable (tot i que simplificada). En la següent part estudiem la telemetria científica, recopilant els camps de dades a generar pels instruments i proposant un esquema optimitzat de codificació i transmissió, el qual redueix la ocupació del canal de comunicacions i està preparat per incloure un sistema optimitzat de compressió de dades. Aquest darrer serà descrit a la quarta i última part de la tesi, on veurem com la nostra proposta compleix gairebé totalment els requeriments de compressió, arribant a duplicar les relacions de compressió ofertes pels millors sistemes estàndard. El nostre disseny representa la millor solució actualment disponible per Gaia i el seu rendiment ha estat assumit com a disseny base per altres equips.Cal dir que els resultats del nostre treball van més enllà de la publicació d'una memòria de tesi, complementant-la amb aplicacions de software que hem desenvolupat per ajudar-nos a dissenyar, optimitzar i verificar la operació dels sistemes aquí proposats. També cal indicar que la complexitat del nostre treball ha estat augmentada degut a la necessitat d'actualitzar-lo contínuament als canvis que la missió ha sofert en el seu disseny durant els cinc anys del doctorat. Per acabar, podem dir que estem satisfets amb els resultats del nostre treball, ja que la majoria han estat (o estan essent) tinguts en compte per molts equips involucrats en la missió i per la mateixa Agència Espacial Europea en el disseny final.
24

Adaptive pre-distortion for nonlinear high power amplifiers in OFDM systems

Durney Wasaff, Hugo Ivan 22 July 2004 (has links)
El acelerado crecimiento de las comunicaciones a través de plataformas de transmisión en banda ancha por vía alámbrica e inalámbrica, sumado al uso cada vez más extenso de modulaciones de amplitud no constante que, debido a su alta eficiencia espectral y bajo coste de implementación, han sido adoptadas en el marco de desarrollo de diversos estándares de transmisión, son aspectos que han servido de soporte y motivación fundamental para el presente trabajo de investigación en el campo de la compensación de distorsiones no lineales en sistemas de comunicación. El estudio de los efectos de la distorsión no lineal y su compensación ha sido desde hace ya muchos años objeto de atención para investigadores de diversas áreas. Hoy, en particular, este estudio sigue siendo fundamental ya que se encuentra directamente implicado en el desarrollo de tecnologías de última generación en el área de las comunicaciones. Los nuevos sistemas de transmisión digital, en especial aquellos basados en OFDM (Orthogonal Frequency Division Multiplexing), son capaces de ofrecer altos niveles de eficiencia espectral utilizando modulaciones lineales multinivel sobre un numeroso conjunto de subportadoras que, al ser (idealmente) ortogonales en frecuencia, pueden ser ubicadas en un ancho de banda muy reducido permitiendo así transmitir elevadas tasas de información por segundo y por ancho de banda. Sin embargo, y a consecuencia de esto, problemas como las interferencias por canal adyacente o la presencia de una distorsión no lineal en la cadena de transmisión afectan de manera crítica las prestaciones de estos sistemas imponiendo severos límites a su viabilidad. De hecho, en el campo de las comunicaciones móviles y satelitales, existen actualmente diversas aplicaciones donde estos esquemas de modulación y multicanalización están ya operativos. En estos casos, la eficiencia de potencia en transmisión resulta primordial para, entre otras razones, lograr una máxima autonomía del equipamiento. En este contexto, el comportamiento no lineal de los amplificadores de alta potencia utilizados en transmisión de radiofrecuencia, constituye el principal obstáculo (desde el punto de vista de la distorsión no lineal) para el buen funcionamiento de los sistemas de comunicación digital basados en OFDM. Afortunadamente, este nocivo efecto puede ser compensado mediante diversas técnicas clásicas de linealización cuyas variantes -ad-hoc' han sido propuestas y ampliamente investigadas, existiendo al día de hoy una nutrida literatura parte de la cual referimos a lo largo de este trabajo. Entre dichas técnicas, la pre-distorsión digital ofrece óptimas condiciones para el diseño de linealizadores adaptativos ya que puede ser implementada a muy bajo coste sobre la información discreta de las señales de banda base. El objetivo que se persigue, en general, es el de proveer las condiciones de linealidad necesarias para explotar las capacidades propias de las modulaciones de alta eficiencia espectral, y al mismo tiempo alcanzar un máximo aprovechamiento de la potencia disponible. En este trabajo de investigación, efectuamos inicialmente una revisión sintetizada de algunas importantes técnicas de linealización para luego dar paso a una revisión más detallada de dos modelos relevantes utilizados para caracterizar el comportamiento no lineal de los amplificadores de alta potencia (modelo se Series de Volterra y modelo de Saleh para amplificadores nolineales sin memoria). Junto con ello se examinan algunas interesantes propiedades estadísticas asociadas al fenómeno de la distorsión no lineal que han dado pie a considerar durante la investigación posibles nuevas aplicaciones en estrategias de pre-distorsión. Se ha querido también incluir la descripción, a nivel de sistema y modelo de señal, de un esquema de transmisión OFDM genérico incluyendo caracterizaciones analíticas detalladas del efecto no lineal a objeto de formalizar en propiedad un modelo discreto exacto que otorgue una visión más profunda para la comprensión del fenómeno estudiado. Finalmente se presenta el diseño y evaluación de un esquema de pre-distorsión basado en un algoritmo iterativo que considera, como principal aporte, la optimización bidimensional de un reducido número de coeficientes de interpolación que identifican de manera adaptativa la característica inversa de ganancia compleja de un amplificador, tanto en función de la particular morfología no lineal de dicha curva, como también de la distribución de probabilidad de las señales de entrada en banda base. / The rapid growth of wired and wireless broad-band communications and the pervasive use of spectrally efficient non-constant amplitude modulations, adopted in the framework of several standardized transmission formats, motivates and supports the present research work in the field of non-linear distortion in communication systems. The compensation of nonlinearities has received a lot of attention in past and recent years, presenting direct implications on industrial development of last generation communication technologies. New digital transmission systems, particularly those based on Orthogonal Frequency Division Multiplexing (OFDM), feature high spectral efficiency as they exploit multilevel linear modulations to transmit at high information rates in combination with a dense allocation of a large number of (ideally) orthogonal sub-carriers in a relatively reduced bandwidth. As a result, problems such as adjacent channel interference and non-linear distortion become critical for system performance and, therefore, must be reduced to a minimum. Moreover, numerous applications of such transmission schemes are already operative in the field of satellite and mobile communications, where power efficiency is of primary concern due to, among other reasons, operation autonomy of the equipment and effective transmitted power. In this context, the non-linear behaviour of high power amplifiers (HPAs) constitutes a major impairment for OFDM-based digital communications systems. The compensation of these harmful effects can be achieved using a variety of techniques that have been proposed and widely dealt with in the literature. Among these techniques, digital pre-distortion, which can be carried out at a very low cost over the discrete base-band information, provides optimal features for the efficient implementation of adaptive linearization. Thence, in order to provide good conditions for the reliable use of high spectral efficiency modulations while taking the maximum advantage from the transmitting power budget, it is necessary to incorporate a suitable linearization technique.In the present work, we begin by reviewing some background on linearization techniques. This leads us to continue analyzing two relevant theoretical models typically used in characterizing memory and memoryless nonlinear HPAs (Volterra Series model and Saleh model for memoryless nonlinear HPAs). In addition to this a generic OFDM system and signal structure is described in detail by including the non-linear effect in the analytical model of the transmission chain. This is done in order to formalize an exact discrete OFDM model that help us in achieving a deeper understanding of the phenomenon under consideration. Then, some useful statistical properties and parameters associated to the nonlinear distortion are examined as well as the application of a CDF-based estimation of nonlinearities which is proposed as a new pre-distortion strategy. Finally, a new discrete adaptive pre-distortion scheme is formulated and then tested via simulation. The analysis and design of the main algorithm proposed considers the adaptive identification of the inverse complex gain characteristic of a nonlinear HPA. For this purpose, an iterative 2-D optimization of a reduced number of interpolation functions is formulated under a special two-fold criterion which accounts for the particular morphology of the HPA's nonlinear gain characteristic, as well as the probability distribution of the input base-band information.
25

Optimization of Segmentation-Based Video Sequence Coding Techniques. Application to content based functionalities

Morros Rubio, Josep Ramon 23 December 2004 (has links)
En aquest treball s'estudia el problema de la compressió de video utilitzant funcionalitats basades en el contingut en el marc teòric dels sistemes de codificació de seqüències de video basats en regions. Es tracten bàsicament dos problemes: El primer està relacionat amb com es pot aconseguir una codificació òptima en sistemes de codificació de video basats en regions. En concret, es mostra com es pot utilitzar un metodologia de 'rate-distortion' en aquest tipus de problemes. El segon problema que es tracta és com introduir funcionalitats basades en el contingut en un d'aquests sistemes de codificació de video.La teoria de 'rate-distortion' defineix l'optimalitat en la codificació com la representació d'un senyal que, per una taxa de bits donada, resulta en una distorsió mínima al reconstruir el senyal. En el cas de sistemes de codificació basats en regions, això implica obtenir una partició òptima i al mateix temps, un repartiment òptim dels bits entre les diferents regions d'aquesta partició. Aquest problema es formalitza per sistemes de codificació no escalables i es proposa un algorisme per solucionar-lo. Aquest algorisme s'aplica a un sistema de codificació concret anomenat SESAME. En el SESAME, cada quadre de la seqüència de video es segmenta en un conjunt de regions que es codifiquen de forma independent. La segmentació es fa seguint criteris d'homogeneitat espaial i temporal. Per eliminar la redundància temporal, s'utilitza un sistema predictiu basat en la informació de moviment tant per la partició com per la textura. El sistema permet seguir l'evolució temporal de cada regió per tota la seqüència. Els resultats de la codificació són òptims (o quasi-òptims) pel marc donat en un sentit de 'rate-distortion'. El procés de codificació inclou trobar una partició òptima i també trobar la tècnica de codificació i nivell de qualitat més adient per cada regió. Més endavant s'investiga el problema de codificació de video en sistemes amb escalabilitat i que suporten funcionalitats basades en el contingut. El problema es generalitza incloent en l'esquema de codificació les dependències espaials i temporals entre els diferents quadres o entre les diferents capes d'escalabilitat. En aquest cas, la solució requereix trobar la partició òptima i les tècniques de codificació de textura òptimes tant per la capa base com per la capa de millora. A causa de les dependències que hi ha entre aquestes capes, la partició i el conjunt de tècniques de codificació per la capa de millora dependran de les decisions preses en la capa base. Donat que aquest tipus de solucions generalment són molt costoses computacionalment, també es proposa una solució que no té en compte aquestes dependències.Els algorismes obtinguts s'apliquen per extendre SESAME. El sistema de codificació extès, anomenat XSESAME suporta diferents tipus d'escalabilitat (PSNR, espaial i temporal) així com funcionalitats basades en el contingut i la possibilitat de seguiment d'objectes a través de la seqüència de video. El sistema de codificació permet utilitzar dos modes diferents pel que fa a la selecció de les regions de la partició de la capa de millora: El primer mode (supervisat) està pensat per utilitzar funcionalitats basades en el contingut. El segon mode (no supervisat) no suporta funcionalitats basades en el contingut i el seu objectiu és simplement obtenir una codificació òptima a la capa de millora.Un altre tema que s'ha investigat és la integració d'un mètode de seguiment d'objectes en el sistema de codificació. En el cas general, el seguiment d'objectes en seqüències de video és un problema molt complex. Si a més aquest seguiment es vol integrar en un sistema de codificació apareixen problemes addicionals degut a que els requisits necessaris per obtenir eficiència en la codificació poden entrar en conflicte amb els requisits per una bona precisió en el seguiment d'objectes. Aquesta aparent incompatibilitat es soluciona utilitzant un enfocament basat en una doble partició de cada quadre de la seqüència. La partició que s'utilitza per la codificació es resegmenta utilitzant criteris purament espaials. Al projectar aquesta segona partició permet una millor adaptació dels contorns de l'objecte a seguir. L'excés de regions que implicaria aquesta re-segmentació s'elimina amb una etapa de fusió de regions realitzada a posteriori. / En este trabajo se estudia el problema de la compresión de vídeo utilizando funcionalidades basadas en el contenido en el marco teórico de los sistemas de codificación de secuencias de vídeo basados en regiones. Se tratan básicamente dos problemas: El primero está relacionado con la obtención de una codificación óptima en sistemas de codificación de vídeo basados en regiones. En concreto, se muestra como se puede utilizar un metodología de 'rate-distortion' para este tipo de problemas. El segundo problema tratado es como introducir funcionalidades basadas en el contenido en uno de estos sistemas de codificación de vídeo.La teoría de 'rate-distortion' define la optimalidad en la codificación como la representación de una señal que, para un tasa de bits dada, resulta en una distorsión mínima al reconstruir la señal. En el caso de sistemas de codificación basados en regiones, esto implica obtener una partición óptima y al mismo tiempo, un reparto óptimo de los bits entre las diferentes regiones de esta partición. Este problema se formaliza para sistemas de codificación no escalables y se propone un algoritmo para solucionar este problema. Este algoritmo se aplica a un sistema de codificación concreto llamado SESAME. En SESAME, cada cuadro de la secuencia de vídeo se segmenta en un conjunto de regiones que se codifican de forma independiente. La segmentación se hace siguiendo criterios de homogeneidad espacial y temporal. Para eliminar la redundancia temporal, se utiliza un sistema predictivo basado en la información de movimiento tanto para la partición como para la textura. El sistema permite seguir la evolución temporal de cada región a lo largo de la secuencia. Los resultados de la codificación son óptimos (o casi-óptimos) para el marco dado en un sentido de 'rate-distortion'. El proceso de codificación incluye encontrar una partición óptima y también encontrar la técnica de codificación y nivel de calidad más adecuados para cada región.Más adelante se investiga el problema de la codificación de vídeo en sistemas con escalabilidad y que suporten funcionalidades basadas en el contenido. El problema se generaliza incluyendo en el esquema de codificación las dependencias espaciales y temporales entre los diferentes cuadros o entre las diferentes capas de escalabilidad. En este caso, la solución requiere encontrar la partición óptima y las técnicas de codificación de textura óptimas tanto para la capa base como para la capa de mejora. A causa de les dependencias que hay entre estas capas, la partición y el conjunto de técnicas de codificación para la capa de mejora dependerán de las decisiones tomadas en la capa base. Dado que este tipo de soluciones generalmente son muy costosas computacionalmente, también se propone una solución que no tiene en cuenta estas dependencias.Los algoritmos obtenido se usan en la extensión de SESAME. El sistema de codificación extendido, llamado XSESAME soporta diferentes tipos de escalabilidad (PSNR, espacial y temporal) así como funcionalidades basadas en el contenido y la posibilidad de seguimiento de objetos a través de la secuencia de vídeo. El sistema de codificación permite utilizar dos modos diferentes por lo que hace referencia a la selección de les regiones de la partición de la capa de mejora: El primer modo (supervisado) está pensado para utilizar funcionalidades basadas en el contenido. El segundo modo (no supervisado) no soporta funcionalidades basadas en el contenido y su objetivo es simplemente obtener una codificación óptima en la capa de mejora.Otro tema investigado es la integración de un método de seguimiento de objetos en el sistema de codificación.En el caso general, el seguimiento de objetos en secuencias de vídeo es un problema muy complejo. Si este seguimiento se quiere integrar en un sistema de codificación aparecen problemas adicionales debido a que los requisitos necesarios para obtener eficiencia en la codificación pueden entrar en conflicto con los requisitos para obtener una buena precisión en el seguimiento de objetos. Esta aparente incompatibilidad se soluciona usando un enfoque basado en una doble partición de cada cuadro de la secuencia. La partición que se usa para codificar se resegmenta usando criterios puramente espaciales. Proyectando esta segunda partición se obtiene una mejor adaptación de los contornos al objeto a seguir. El exceso de regiones que implicaría esta resegmentación se elimina con una etapa de fusión de regiones realizada a posteriori. / This work addresses the problem of video compression with content-based functionalities in the framework of segmentation-based video coding systems. Two major problems are considered. The first one is related with coding optimality in segmentation-based coding systems. Regarding this subject, the feasibility of a rate-distortion approach for a complete region-based coding system is shown. The second one is how to address content-based functionalities in the coding system proposed as a solution of the first problem. Optimality, as defined in the framework of rate-distortion theory, deals with obtaining a representation of the video sequence that leads to a minimum distortion of the coded signal for a given bit budget. In the case of segmentation-based coding systems this means to obtain an 'optimal' partition together with the best coding technique for each region of this partition so that the result is optimal in an operational rate-distortion sense. The problem is formalized for independent, non-scalable coding.An algorithm to solve this problem is provided as well.This algorithms is applied to a specific segmentation-based coding system, the so called SESAME. In SESAME, each frame is segmented into a set of regions, that are coded independently. Segmentation involves both spatial and motion homogeneity criteria. To exploit temporal redundancy, a prediction for both the partition and the texture of the current frame is created by using motion information. The time evolution of each region is defined along the sequence (time tracking). The results are optimal (or near-optimal) for the given framework in a rate-distortion sense. The definition of the coding strategy involves a global optimization of the partition as well as of the coding technique/quality level for each region. Later, the investigation is also extended to the problem of video coding optimization in the framework of a scalable video coding system that can address content-based functionalities. The focus is set in the various types of content-based scalability and object tracking. The generality of the problem has also been extended by including the spatial and temporal dependencies between frames and scalability layers into the optimization schema. In this case the solution implies finding the optimal partition and set of quantizers for both the base and the enhancement layers. Due to the coding dependencies of the enhancement layer with respect to the base layer, the partition and the set of quantizers of the enhancement layer depend on the decisions made on the base layer. Also, a solution for the independent optimization problem (i.e. without tacking into account dependencies between different frames of scalability layers) has been proposed to reduce the computational complexity. These solutions are used to extend the SESAME coding system. The extended coding system, named XSESAME, supports different types of scalability (PSNR, Spatial and temporal) as well as content-based functionalities, such as content-based scalability and object tracking. Two different operating modes for region selection in the enhancement layer have been presented: One (supervised) aimed at providing content-based functionalities at the enhancement layer and the other (unsupervised) aimed at coding efficiency, without content-based functionalities. Integration of object tracking into the segmentation-based coding system is also investigated.In the general case, tracking is a very complex problem. If this capability has to be integrated into a coding system, additional problems arise due to conflicting requirements between coding efficiency and tracking accuracy. This is solved by using a double partition approach, where pure spatial criteria are used to re-segment the partition used for coding. The projection of the re-segmented partition results in more precise adaptation to object contours. A merging step is performed a posteriori to eliminate the excess of regions originated by the re-segmentation.
26

Análisis del régimen permanente y la estabilidad de circuitos no lineales con parámetros distribuidos mediante técnicas de tiempo discreto

Bonet Dalmau, Jordi 05 July 1999 (has links)
En esta tesis se ha abordado el problema de la determinación directa del régimen permanente de circuitos no lineales autónomos con parámetros distribuidos en el dominio temporal. Con la obtención de las ecuaciones de equilibrio en el dominio transformado de Laplace, es posible escribir directamente el sistema de ecuaciones discretizado en el dominio temporal, donde las incógnitas son el periodo de oscilación y las muestras de las variables de control. Así, toda variable genérica V(s) es transformada en un vector de muestras equiespaciadas de v(t), y cada uno de los operadores, derivada y retardo, en una matriz circulante. La formulación obtenida es tal que posibilita el posterior desarrollo analítico de la sensibilidad del sistema de ecuaciones discretizado respecto al periodo de oscilación y las muestras de las variables de control, permitiendo una eficaz resolución del sistema de ecuaciones utilizando métodos globalmente convergentes basados en modificaciones del método de Newton. Además, con el método de análisis propuesto, es posible reconvertir un problema de optimización en un problema de análisis y, en consecuencia, de menor complejidad. La utilización de los aproximantes de Padé multipunto, para aproximar una línea de transmisión RLCG con elementos de parámetros concentrados y una línea de transmisión ideal, permite extender el método propuesto a los circuitos que incorporan líneas RLCG.Una vez determinadas las soluciones en régimen permanente, el siguiente problema a abordar es el estudio de la estabilidad de estas soluciones, utilizándose los resultados de este estudio para detectar bifurcaciones de Hopf, de desdoblamiento de órbitas y puntos límite. En esta tesis se describe una técnica que permite seguir a) la rama que continua tras la aparición de un punto límite y b) la rama de periodo doble existente en una bifurcación de desdoblamiento de órbitas, como se comprueba sobre el circuito de Chua retardado (TDCC),Otra aportación de esta tesis, desarrollada íntegramente en el plano teórico, ha consistido en estrechar los lazos existentes entre el estudio de la estabilidad en el dominio temporal y el dominio frecuencial. El punto de partida se encuentra en la obtención de una transformación que permite trasladar cualquier formulación de análisis del dominio frecuencial al temporal y viceversa. La extensión de estos vínculos al estudio de la estabilidad deriva en la obtención de importantes resultados. Destaca, entre éstos, la obtención de la formulación de estabilidad utilizada por el método de balance armónico (HB), partiendo de un estudio de la estabilidad realizado en el dominio temporal. Estos resultados se complementan con los obtenidos por otros autores que, partiendo de una formulación en el dominio temporal con variables de estado, obtienen una formulación en el dominio frecuencial. Con la finalidad de no avanzar en el vacío, las ideas que aparecen en esta tesis han sido siempre contrastadas, en algunos casos por más de una vía. Así, el circuito de Van der Pol se analiza con el método de HB y con el método propuesto utilizando tres formulaciones distintas. El estudio de la estabilidad de los puntos de equilibrio del TDCC se contrasta con resultados analíticos. La determinación de las regiones de funcionamiento del circuito de Van der Pol excitado y la construcción de su curva solución se comparan con los resultados obtenidos usando HB. Los resultados de análisis del TDCC con línea RLCG son contrastados con los resultados obtenidos utilizando métodos de integración. Finalmente, se realiza una validación experimental del oscilador con línea de transmisión, sobre el cual se resuelve un problema de análisis y otro de optimización. / This thesis has tackled the problem of the direct determination of the steady state analysis of autonomous circuits with transmission lines and generic nonlinear elements. With the equilibrium equations obtained in the Laplace transformed domain, it is possible to directly write the discretized system of equations in the temporal domain where the unknowns to determine are the samples of the control variables, directly in the steady state, along with the oscillation period. Thus, every generic variable V(s) is converted into a vector of equally spaced samples of v(t) and each one of the operators, derivative and delay, into a circulant matrix. The formulation obtained is such that makes it possible the subsequent analytic development of the sensibility of the system of equations discretized with respect to the oscillation period and the samples of the control variables, allowing to solve the system of equations effectively using globally convergent techniques based on modifications of the Newton method. Moreover, with the analysis method suggested here, it is possible to turn a problem of optimization into a problem of analysis and, subsequently, of a lesser complexity. Besides, the use of the multipoint Padé approximants, to approximate an RLCG transmission line with lumped elements and an ideal transmission line, makes it possible to extend the suggested method to the circuits that include RLCG transmission lines.Once the steady state solutions have been determined, the next problem to deal with is the study of the stability of these solutions. The results of this study are used to detect Hopf bifurcations, period-doubling bifurcations and limit points. In this thesis a technique is described which allows us to follow a) the branch that follows after the appearance of a limit point and b) the branch of double period that exists in a period-doubling bifurcation point, as it can be proved in the time delayed Chua's circuit (TDCC).Another contribution of this thesis, totally developed at a theoretical level, has consisted in strengthening the existing bonds between the study of the stability both in the temporal and in the frequency domain. The starting point is a transformation that makes it possible to transfer any analysis formulation from the frequency domain to the temporal one and vice versa. The extension of these links to the study of the stability leads to important results. It stands out, among them, the obtained formulation of stability used by the harmonic balance (HB) method, starting from a stability study made in the temporal domain. These results complement each other with those obtained by other authors who, starting from a formulation in the temporal domain with state variables, obtain a formulation in the frequency domain. With the purpose of validating the ideas that appear in this thesis, these have always been contrasted, in some cases in more than one way. Thus, the Van der Pol oscillator is analyzed with the HB method and with the method suggested here using three different formulations. The study of the stability of the equilibrium points of the TDCC is contrasted with analytic results. The determination of the working regions of the excited Van der Pol oscillator and the construction of its solution curve is compared with the results obtained using HB. The results of the analysis of the TDCC with RLCG line are contrasted with those obtained using integration techniques. Finally, an experimental validation of an oscillator with transmission line is made, in which a problem of analysis and another one of optimization are solved.
27

Contribución al modelado y caracterización de nodos en redes de banda ancha. Aplicación al multiplexor inverso ATM.

Aguilar Igartua, Mónica 21 January 2000 (has links)
El acceso a las redes ATM y el dimensionado de sus recursos son cuestiones clave ya que cada vez hay una mayor demanda de ancho de banda por parte de los usuarios. Sin embargo, se necesitan alternativas económicamente viables. La multiplexación inversa ATM es una técnica con la que se combinan varios enlaces T1/E1 resultando en un único canal lógico de datos con tasa igual al agregado de los anchos de banda T1/E1 menos una pequeña cantidad debida a overhead de control. Resulta de gran interés caracterizar mediante expresiones fácilmente manejables el comportamiento de los nodos de una red de banda ancha en cuanto a los parámetros principales de calidad de servicio ATM. En esta tesis se aportan varios modelos analíticos para evaluar las prestaciones de un conmutador ATM suficientemente genérico y del dispositivo IMUX que permite estimar de manera ajustada los parámetros de calidad de servicio más relevantes para su diseño: tiempo medio de espera de las celdas en el dispositivo y probabilidad de pérdida de las mismas. La finalidad es constituir una herramienta efectiva para el diseño adecuado de los parámetros que definen al nodo ATM y particularmente al IMUX dada su mayor tratabilidad analítica.Para abordar el análisis, en primer lugar se han estudiado sistemas de colas conocidos y en particular se ha aportado un método analítico para aproximar los parámetros de calidad de servicio del sistema de colas más adecuado para modelar un nodo ATM y en concreto un multiplexor inverso ATM. Esto es, cola M/D/s/s+B con tiempo de servicio discreto y un esquema de cinco niveles de prioridad. Por otro lado, se modifica la semi-cadena de Markov para el sistema M/D/1 adaptándola a las características propias del IMUX. Además, se analizan minuciosamente por separado todos los efectos que tienen lugar en el dispositivo IMUX debido a la inserción de las celdas de control y de relleno, de acuerdo con la especificación IMA del ATM Forum.Finalmente se apuntan las líneas de trabajo futuro como son la incorporación de un esquema de cinco prioridades en el IMUX; el estudio y análisis de los efectos que produce el disponer de ancho de banda bajo demanda en las prestaciones que ofrece el IMUX que además está directamente relacionado con el estudio y análisis del comportamiento del IMUX bajo modelos de tráfico de entrada más realista. / The growing demand of network bandwidth users made indicates that user access to high speed (i.e. ATM) networks is a key issue. The Inverse Multiplexing for ATM (IMA) is a technology that combines multiple T1/E1 links to support the transparent transmission of ATM cells over one single logical data trunk which bandwidth is the aggregate of the T1/E1 capacities, minus a small amount due to overhead. That is, it provides high bandwidth by using already deployed WAN infrastructure and at a reasonable cost. Employing this technology, it is possible to dispose of ATM connections with data rates between the T1/E1 (an economical but sometimes too slow option) and T3/E3 ones (with high bandwidth, but expensive for the mass market of users). In this framework, and facing a new technology, it is crucial to have tools (analytical and simulation ones) easy to manipulate that help telecommunication engineers and network planners on the performance evaluation and dimensioning of these systems. In this paper, the fundamentals and major applications of IMA technology are described. Also, the behavior of IMA multiplexers is carefully analyzed and a method to dimension them proposed. An estimate for the Cell Loss Ratio (CLR) and the mean waiting time measured in the IMUX devices are obtained.In this thesis several analytical models are contributed to evaluate the benefits of a sufficiently generic ATM node and of an IMUX device. That allows computing the parameters of quality of service for its design: average waiting time of the cells in the device and cell loss probability. The purpose is to constitute an effective tool for the suitable design of the parameters that define the ATM node and particularly to the IMUX. In order to start with the analysis, firstly we have adapted the well-known queue systems to model a concrete ATM node and an inverse multiplexer for ATM. An analytical method has been contributed to approximate the parameters of quality of service of the queue systems. That is, we have applied a M/D/s/s+B queue with discreet-time service and a scheme of five levels of priority.The last analytical study is based on the comparison with a M/D/1 queue system. In addition, all the effects that take place in IMUX device are analyzed meticulously separately. They are due to the insertion of the control cells and filler cells, in agreement with the IMA specification of the ATM Forum.Even though, we are aware of the weakness of our assumptions, especially concerning to the Poisson input traffic, the model is compact, easy to understand and to manipulate, therefore it can be valuable to validate simulation models developed to evaluate IMUX devices under more realistic input traffic patterns. Finally, the lines of future work are scored: the incorporation of a five priorities scheme in the IMUX; the study and analysis of the effects of having bandwidth under demand as a benefits that the IMUX offers; the study and analysis of the IMUX behavior under more realistic traffic models.
28

Contribución al estudio y diseño de mecanismos avanzados de servicio de flujos semi-elásticos en internet con garantías de calidad de servicio extremo a extremo

Postigo Boix, Marcos 25 April 2003 (has links)
Los servicios y aplicaciones ofrecidos en Internet demandan, con mayor frecuencia, un determinado nivel de servicio para su correcto funcionamiento. Esto supone el desarrollo de mecanismos que permitan ofrecer calidad de servicio diferenciada entre extremos distantes de la red. En una red con estas características el coste debido al uso de este servicio diferenciado es mayor que el de utilizar el modo tradicional de transferencia best-effort. Ello obliga a los usuarios a realizar un uso responsable de los recursos reservados. Por tanto, será crucial reservar sólo aquellos recursos estrictamente necesarios para lograr un mínimo coste.En este trabajo de Tesis Doctoral, se aborda el problema de minimizar los recursos reservados para una transmisión de un flujo semi-elástico. Este tipo de flujo se caracteriza por necesitar la reserva de más o menos recursos en función del estado de la red, por lo que se plantea el diseño de un sistema cliente-servidor capaz de realizar de forma automática las reservas estrictamente necesarias. Para ello, se propone un mecanismo de control de la ocupación de la memoria del cliente que permite determinar los periodos en que es necesario utilizar un modo de transferencia best-effort (aquellos en los que la ocupación garantiza la disponibilidad de datos en recepción), y los periodos en que se necesita un modo de transferencia con reserva de recursos para garantizar el llenado de dicha memoria. Del análisis de este mecanismo, se deducen expresiones para el coste de transmisión en función de los diversos parámetros que afectan a la ocupación de la memoria del cliente. De estos parámetros destaca especialmente la tasa de llegada de datos, que depende del estado de la red, y el umbral máximo de ocupación que indica cuándo se puede transmitir en modo best-effort. Gracias al correcto dimensionado de este umbral máximo, el cliente es capaz de minimizar los recursos reservados de la red. Para calcular este umbral, uno de los problemas que se plantea es la necesidad de una estimación inicial de la tasa de llegada de datos en modo best-effort. Para ello, se propone el uso de un umbral inicial que permita pasar a modo best-effort y realizar así, la estimación de esta tasa. Por otra parte, se propone también el uso de un mecanismo que mejora la minimización del coste de transmisión cuando la variabilidad de la tasa de llegada de paquetes en modo best-effort es grande, sin incrementar desmesuradamente la cantidad de señalización asociada necesaria.Finalmente, se propone un mecanismo para dar servicio de forma simultánea a varios clientes. Concretamente, se estudia mediante simulación un caso homogéneo, donde todos los clientes presentan los mismos requisitos. El esquema propuesto permite dar servicio simultáneo a un número determinado de clientes reservando recursos, mientras que el resto se sirve en modo best-effort. Del estudio se determina la existencia de un valor óptimo para el número de clientes a los que se da servicio en modo de reserva de recursos, que minimiza la señalización extra necesaria para gestionar el servicio.Asimismo, como complemento adicional para realizar este trabajo, se ha desarrollado una implementación del sistema cliente servidor de flujos semi-elásticos en el simulador ns-2, y además otra implementación real en lenguaje C sobre sistema Linux. / Internet services and applications are increasingly demanding appropriate levels of service for their adequate operation. That supposes the development of new mechanisms to allow end-to-end differentiated quality of service. In these networks, the cost of using this differentiated service is consequently higher than the employment of the well-known best-effort delivery mode, which requires users to make a responsible use of the reserved resources. Therefore, it is essential to reserve only those resources strictly necessary to achieve the minimum cost.This Thesis work deals with the problem of minimizing reserved resources in a semi-elastic flow transmission. This type of flow is characterized for requiring the reservation of more or less resources depending on network conditions, and for this reason, it is considered the design of a client-server system to reserve automatically the required demanded resources. Hence, it is proposed a method to control the client memory occupancy that determines when it is necessary to use a best-effort delivery mode (those periods when occupancy guarantees data availability in the client side), and when to use a resource reservation delivery mode to guarantee enough data entering into the client memory. From the analysis of this method, it is deduced the transmission cost, which depends on several parameters directly involved with client memory occupancy. Among these parameters, the delivery data rate and the maximum occupancy threshold, that indicates when it is possible to send data using best-effort mode, are the most significant ones. Thanks to the correct dimensioning of this maximum threshold, the client is able to minimize reserved network resources. To calculate this threshold, it is necessary to acquire an initial estimate for the best-effort delivery rate. To achieve this, it is proposed the use of an initial threshold to force a change to best-effort mode to obtain this estimate. In addition, it is proposed the use of a mechanism to improve the minimization cost for high delivery rate variability, without excessively increasing the signalling associated to the switching of transmission modes.Finally, it is proposed a method to serve simultaneously various clients. A homogeneous case is studied by simulation, in which all clients have the same requirements. This method allows a particular number of clients to be served by reserving resources, while the rest use best-effort mode. From this study, it is determined the existence of an optimum value for the number of simultaneous clients to be served by using resource reservation, that minimizes extra signalling to manage this service.Furthermore, as an aid to complement this research work, it has been developed an implementation of a client-server system for semi-elastic flows using ns-2, and additionally, a real implementation using C programming language in a Linux system.
29

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
30

Atmospheric Tomography Using Satellite Radio Signals

Flores Jiménez, Alejandro 04 February 2000 (has links)
Los sistemas de posicionamiento global GNSS (GPS y GLONASS) se han convertido en una herramienta básica para obtener medidas geodésicas de la Tierra y en una fuente de datos para el estudio atmosférico. Proporcionan cobertura global y permanente y por la precisión, exactitud y densidad de datos, las señales radio transmitidas pueden ser usadas para la representación espacio-temporal de la atmósfera.La tecnología de los receptores GPS ha evolucionado con una sorprendente rapidez, resultando en instrumentos con suficiente calidad de medida para ser utilizados en estudios geodésicos, comparables a los resultados de técnicas como la interferometría de muy larga base (VLBI), y estudios atmosféricos cuyos resultados pueden ser usados en meteorología.En la tesis Tomografía Atmosférica utilizando Señales Radio de Satélites nos hemos centrado en el uso del sistema GPS por disponer mayor cantidad y calidad de referencias y herramientas para el procesado de los datos. No obstante, se ha demostrado la posibilidad de extender el concepto a cualquier sistema de transmisión radio desde satélite como sondeador atmosférico. La estructura de la tesis se ha dividido en dos áreas: el procesado de datos GPS para extraer información referente a los parámetros atmosféricos de interés, y la aplicación de técnicas tomográficas para la resolución de problemas inversos. En particular, la tomografía se ha aplicado a la ionosfera y la atmósfera neutra. En ambos casos, los resultados tienen un innegable impacto socio-económico: a) la monitorización del estado ionosférico es fundamental por las perturbaciones que la ionosfera provoca en las transmisiones radio que la atraviesan, y b) la estimación del contenido de vapor de agua de la troposfera es de utilidad en la predicción meteorológica y climática.La tomografía ionosférica se empezó a desarrollar usando únicamente datos de la red global IGS. A continuación se mejoró la resolución vertical mediante la utilización de datos de ocultaciones del experimento GPS/MET. La mejora de la resolución se ve limitada a la región en la que estos datos existen. Finalmente, se utilizaron datos de altimetría del satélite TOPEX/POSEIDON para mejorar los mapas y para demostrar la posibilidad de calibración instrumental de los altímetros radar usando técnicas tomográficas.La aplicación a la troposfera se obtuvo tras la mejora y refinamiento tanto del procesado de datos GPS como del proceso de inversión tomográfica. Los primeros resultados se obtuvieron mediante los datos experimentales de la red permanente en Kilauea, Hawaii, por la configuración particular de los receptores. Estos resultados demostraban la capacidad de obtener representaciones espacio-temporales de la troposfera mediante datos GPS. El análisis de los datos de la campaña REGINA, realizada en el Onsala Space Observatory, nos permitió la descripción de un fenómeno meteorológico complejo mediante la tomografía troposférica usando datos GPS y su verificación por comparación directa con medidas realizadas por radiosondeo.En conclusión, se ha demostrado la posibilidad de aplicar tomografía a la atmósfera utilizando señales radio de satélites y, en particular, la constelación GPS. / The Global Navigation Satellite Systems (GPS and GLONASS) have become a basic tool to obtain geodetic measurements of the Earth and a source of data for the atmospheric analysis. Since these systems provide a global, dense and permanent coverage with precise and accurate data, the radio signals they transmit can be used for the spatio-temporal representation of the atmosphere.GPS receivers technology has evolved at a surprising pace: nowadays they have sufficient measurement quality as to be used in geodetic studies, together with other techniques such as the Very Long Base Interferometry (VLBI), and in atmospheric studies whose results can be input into meteorological analysis.In the thesis "Atmospheric Tomography Using Satellite Radio Signals" we have focused on the use of GPS system due to the better quality and quantity of references and tools for the data processing. This notwithstanding, we have proven the possibility to broaden the concept to include any other radio signal transmitting satellite system as an atmospheric sounder. The thesis has been divided into two main areas: GPS data processing to extract the information related to the atmospheric parameters under study, and the implementation of tomographic techniques to the solution of the inverse problem. In particular, tomography has been applied to the ionosphere and to the neutral atmosphere. In both cases, results have a socio-economic impact: a) monitoring the ionosphere is essential for radio transmissions across it because of the perturbations it may produce on the signal, and b) estimating water vapour content in the troposphere is highly useful for meteorological and climate forecastFor the ionospheric tomography we initally only used the data from the global IGS network. Vertical resolution was afterwards improved using the occultation data of the GPS/MET experiment. The improvement, however, was limited to the region where these data existed. Finally, we used altimeter data from the TOPEX/POSEIDON satellite to improve the maps and to prove the radar altimeter calibration capability of the tomographic technique.The application to the troposphere was possible after the improvement and refinement of both the GPS data processing and the tomographic inversion. The first results were obtained using the experimental data from the permanent network in Kilauea, Hawaii. The particular geometry of the receivers in this local network made it highly suited for these initial results, which proved the possibility of obtaining spatio-temporal representations of the troposphere using GPS data. The data analysis of the REGINA campaign, which took place at the Onsala Space Observatory, provided the description of a complex meteorological phenomenon using only GPS data tropospheric tomography. We verified the results with a direct comparison with radiosonde data.Concluding, we have demonstrated the capabilities of atmospheric tomography using satellite radio signals, with particular emphasis on the GPS signals.

Page generated in 0.0746 seconds