• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 19
  • 4
  • Tagged with
  • 46
  • 35
  • 30
  • 26
  • 25
  • 13
  • 13
  • 12
  • 10
  • 9
  • 9
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Antenna arrays for multipath and interference mitigation in GNSS receivers

Seco Granados, Gonzalo 01 December 2000 (has links)
Esta tesis aborda la sincronización de una o varias réplicas de una señal conocida recibidas en un entorno con propagación multicamino e interferencias direccionales. Uno de los hilos conductores de este trabajo es la aplicación sistemática del principio de máxima verosimilitud (ML) junto con un modelo de señal en el cual las armas espaciales no tienen estructura, y en cual el ruido es Gaussiano y presenta una matriz de correlación desconocida. Esta última suposición es fundamental a la hora de obtener estimadores capaces de atenuar las señales interferentes que presentan algún tipo de estructura, y esto se consigue sin necesidad de recurrir a la estimación de ciertos parámetros de dichas señales. Por otra parte, la suposición de que las armas espaciales carecen de estructura tiene ventajas desde un punto de vista práctico, al mismo tiempo que simplifica la estimación del resto de parámetros ya que las estimaciones de estas firmas se pueden calcular de forma cerrada. Esto constituye un primer paso hacia la eliminación de las búsquedas en múltiples dimensiones, que es otro de los objetivos perseguidos en este trabajo.En la primera parte de la tesis se deduce la solución de máxima verosimilitud para el problema general de estimación de retardos cuando el ruido tiene correlación espacial desconocida. Se demuestra que el criterio resultante para los retardos es consistente y asintóticamente eficiente, pero también es altamente no-lineal debido a la presencia del determinante de una matriz y no permite, por tanto, el uso de procedimientos sencillos de optimización. Asimismo, se demuestra y se argumenta intuitivamente que el criterio _ optimo ML se puede aproximar por una función de coste más sencilla que es asintóticamente equivalente. A diferencia de otros problemas de estimación, en el caso tratado aquí, el primer término del desarrollo de Taylor del estimador ML no conserva la eficiencia asintótica. La característica esencial de la nueva función de coste es que depende linealmente de la matriz de proyección sobre el subespacio de las señales y, por lo tanto, admite ser minimizada mediante el algoritmo IQML, que es eficiente desde el punto de vista computacional. Además, la existencia de métodos de inicialización sencillos y robustos a las interferencias, los cuales se basan en el uso de una matriz de pesos igual a la identidad y posiblemente también en el algoritmo ESPRIT, hace que el esquema de estimación propuesto pueda ser viable para un diseño práctico. La nueva función de coste se puede aplicar de la misma manera a la estimación del retardo en un canal FIR. En este caso, el algoritmo IQML se puede modificar de forma que, en cada iteración, la estimación del retardo se obtiene a partir de las raíces de un polinomio cuyo orden es igual a la longitud del canal.El objetivo perseguido por los estimadores presentados en la segunda parte de la tesis es aprovechar una particularidad de los sistemas GNSS (Global Navigation Satellite Systems), que consiste en que la dirección de llegada de la señal directa puede ser conocida a priori. Basándose en esta información adicional y suponiendo que el array está calibrado, se propone un modelo simplificado, aunque al mismo tiempo aproximado, para la señal recibida. En este modelo todas las señales excepto la señal directa se engloban en un término con correlación espacial desconocida. Se analizan los estimadores ML del retardo y de la fase de portadora de la señal directa. El sesgo producido por las componentes multicamino al utilizar estos estimadores se reduce de forma muy importante con respecto al sesgo que sufren otros métodos. De hecho, el error cuadrático medio de los estimadores propuestos es en muchas ocasiones muy próximo o incluso inferior al mínimo error que se puede alcanzar con modelos más detallados del canal multicamino. Asimismo, se presentan dos algoritmos de estimación del retardo basados en el cálculo de las raíces de un polinomio. Se demuestra también que las estimaciones ML se pueden obtener a partir de la señal de salida de un conformador de haz híbrido. Debido a que el propio conformador depende de las estimaciones del retardo y de la amplitud de la señal directa, el uso de un algoritmo iterativo surge de forma natural. La formulación mediante el conformador híbrido proporciona una interpretación alternativa interesante de la estimación ML, y podrá ser apropiada para una realización práctica. Finalmente, se demuestra analíticamente y numéricamente que el estimador propuesto para el retardo es robusto frente a errores en el valor nominal del vector de enfoque de la señal directa, y se presenta una manera de extender el margen tolerable de errores de apuntamiento.En la última parte de la tesis se trata la sincronización de un usuario deseado que transmite una secuencia de entrenamiento conocida en un sistema de comunicaciones DS-CDMA.El modelo de señal utilizado agrupa el ruido, y la interferencia externa y de acceso múltiple en un término de ruido equivalente que presenta una matriz de correlación espacio-temporal desconocida. Partiendo de este modelo, se deduce un estimador del retardo que es una aproximación para un numero grande de muestras del estimador ML exacto y que es apropiado para canales con desvanecimientos lentos y noselectivos en frecuencia. El estimador propuesto es una técnica de un solo usuario y es resistente al efecto near-far. Su importancia radica en el hecho de que aprovecha la estructura de las señales en el dominio temporal y espacial, lo que contrasta con otros métodos existentes que, a pesar de utilizar un array de antenas, sólo utilizan la estructura de las señales en uno de los dos dominios. En un sistema de comunicaciones móviles, el usuario deseado está interferido por un número generalmente elevado de señales de otros usuarios y por posibles interferencias externas. En concordancia con este hecho, los resultados numéricos han mostrado que el uso conjunto de todos los grados de libertad espacio-temporales es indispensable para la correcta adquisición y seguimiento del retardo en sistemas con una carga elevada de usuarios y/o en presencia de interferencias externas. / The thesis deals with the synchronization of one or several replicas of a known signal received in a scenario with multipath propagation and directional interference. A connecting theme along this work is the systematic application of the maximum likelihood (ML) principle together with a signal model in which the spatial signatures are unstructured and the noise term is Gaussian with an unknown correlation matrix. This last assumption is key in obtaining estimators that are capable of mitigating the disturbing signals that exhibit certain structure. On the other hand, the assumption of unstructured spatial signatures is interesting from a practical standpoint and facilitates the estimation. The elimination of the multidimensional searches required by many estimators is one of the main objectives of the thesis.In the first part of the thesis, the maximum likelihood solution to the general time delay estimation problem for the case of noise with unknown spatial correlation is derived. The resulting criterion for the delays is shown to be consistent and asymptotically efficient; but it is highly non-linear, and does not lead to simple optimization procedures. It is shown that the optimal ML criterion can be approximated by an asymptotically equivalent cost function. The cost function depends linearly on the projection matrix onto the subspace spanned by the signals, and hence it can be minimized using the IQML algorithm. The existence of simple initialization schemes based on identity weightings or ESPRIT makes the approach viable for practical implementation. The proposed cost function can be applied to the estimation of the delay in a FIR channel. In this case, each iteration of IQML comes down to rooting a polynomial.The goal of the estimators presented in the second part of the thesis is to take advantage of one particularity of the GNSS (Global Navigation Satellite Systems) systems, such as GPS and GLONASS, consisting in that the direction-of-arrival of the line-of-sight signal may be known a priori. A simplified and approximate model for the received signal is proposed. The ML estimators of the time delay and carrier phase of the direct signal largely reduce the bias produced by multipath components. Their RMSE is in many situations very close to or even better than the best possible performance attainable with more detailed models of the multipath channel. It is also shown that the ML estimates can be obtained from the output signal of a hybrid beamformer. In the last part of the thesis, the synchronization of a desired user transmitting a known training sequence in a DS-CDMA communication system is addressed. Multiple-access interference, external interference and noise are assumed to have unknown space-time correlation. A large-sample ML code-timing estimator that operates in frequency-nonselective, slowly fading channels is derived. It is a single-user and near-far resistant method. It is shown that the use of all spatial and temporal degrees of freedom is indispensable for the correct acquisition and tracking of the synchronization parameters in heavily loaded systems and/or in the presence of external interference.
12

Aplication of Interferometric Radiometry to Earth Observation

Camps Carmona, Adriano José 22 November 1996 (has links)
La tesis contiene en primer lugar un estudio de las técnicas de interferometria radiometrica, con énfasis en las causas de error y su impacto en las características del sensor. A continuación se proponen y comparan varias técnicas de calibracion basadas en la inyección de ruido.Un aspecto notable de la tesis consiste en el desarrollo de técnicas de reconstrucción de la imagen radiometrica adaptadas a la geometría del sensor miras propuesto por la agencia espacial europea (esa).La tesis incluye tambien el diseño de un prototipo a escala reducida de radiometro interferometrico que se ha utilizado para verificar los resultados teóricos y simulados.En resumen se trata de un trabajo muy completo y riguroso, con numerosas aportaciones originales, que han sido contrastadas experimentalmente.
13

Contribución a la caracterización de los mecanismos de acceso y traspaso en sistemas móviles celulares basados en transmisión de paquetes

Ferrús Ferré, Ramon 19 January 2000 (has links)
La estandarización del esquema de acceso radio para los futuros sistemas de telecomunicación está a punto de ser una realidad. En el calendario propuesto por ITU para llevar a cabo la elaboración del estándar, se prevé que las primeras versiones de las especificaciones técnicas puedan estar disponibles a principios del año 2000. Pero la llegada de la tercera generación, conocida bajo el concepto IMT-2000 dentro de ITU y como UMTS en el ámbito europeo, no estsupeditada únicamente a la incorporación del nuevo sistema de acceso radio, sino que existe una marcada tendencia de migración de los sistemas móviles actuales hacia la provisión de los diferentes servicios y prestaciones ambicionados en el sistema IMT-2000/UMTS.Por tanto, el sistema IMT-2000/UMTS se plantea como una convergencia de diferentes sistemas y nuevas tecnologías que, paulatinamente, van armonizando sus características para poder llegar a conseguir una única plataforma global de telecomunicaciones. Y una de las directrices seguidas en dicha convergencia es la adopción de las denominadas técnicas de transmisión en modo paquete en sustitución de las actuales soluciones basadas en conmutación de circuitos. Algunos de los argumentos esgrimidos a favor de la incorporación de mecanismos de transmisión en modo paquete son los siguientes:* La posibilidad de realizar un uso más eficiente de los recursos radio disponibles. La asignación fija durante el transcurso de toda una conexión puede resultar completamente ineficiente para servicios a ráfagas o con tasas de transmisión fluctuantes.* Mayor flexibilidad a la hora de integrar tráfico de diferente naturaleza, como por ejemplo, voz, datos, deñales de vídeo, etc.* La mayor imbricación de las tecnologías de la información (IT), orientadas a paquetes, en las tecnologías de telecomunicaciones.* La integración paulatina de las redes de acceso móviles a una plataforma.
14

Contribution to Dynamic Spectrum Assignment in multicell OFDMA networks

Bernardo Alvarez, Francisco 01 June 2010 (has links)
La próxima cuarta generación (4G) de redes de comunicaciones móviles celulares considera una interfaz radio basada en OFDMA (Orthogonal Frequency Division Multiple Access). Esta tecnología ofrece robustez a la propagación multicamino y diversidad en frecuencia gracias a la división del ancho de banda de operación en un conjunto de pequeños subcanales en frecuencia para así alcanzar un uso eficiente del espectro. Sin embargo, un importante desafío en una interfaz radio OFDMA es la manera en la que los subcanales en frecuencia se asignan a las distintas celdas. En primer lugar, la carga de tráfico podría variar a lo largo del tiempo y del espacio, de modo que los clásicos patrones fijos de asignación de espectro (es decir, los esquemas de planificación de frecuencias) pueden conducir a una carencia de recursos en ciertas celdas o a una falta de aprovechamiento de los mismos en otras. En segundo lugar, los futuros marcos reguladores del espectro cambiarán la mentalidad sobre su uso, planteando la coexistencia de usuarios primarios y secundarios del espectro en una misma área geográfica. Por lo tanto, una adecuada gestión del espectro primario podría facilitar la aparición de oportunidades del uso del espectro para usuarios secundarios a la vez que el operador podría obtener una nueva entrada de ingresos por ese uso. Finalmente, los futuros escenarios celulares tenderán a ser descentralizados, especialmente con la aparición de nuevos despliegues basados en femtoceldas (puntos de acceso de limitada cobertura desplegados por el propio usuario en la banda espectral en la que el operador tiene licencia), donde se requerirá un alto grado de independencia a la hora de decidir los canales que usa cada femtocelda, ya que, obviamente, las tareas centralizadas planificación de frecuencias tienen poco sentido práctico en estos escenarios.Esta tesis contribuye a la investigación sobre la asignación de espectro en redes móviles celulares 4G basadas en OFDMA proponiendo una solución para manejar dinámicamente la asignación de espectro por celda. Con este fin, se proponen estrategias dinámicas asignación de espectro (en inglés Dynamic Spectrum Assigment: DSA) y un marco práctico para ejecutarlas. Para reducir costes operacionales y la intervención humana en el proceso, el marco DSA propuesto se ha diseñado basándose en conceptos de autoorganización de modo que la red puede de forma autónoma (i) observar el funcionamiento de la asignación actual de espectro, (ii) analizar si una nueva asignación de espectro es necesaria, y (iii) decidir una nueva asignación de espectro que se adapte mejor a las condiciones de la red. Además, se propone una arquitectura funcional centralizada y descentralizada que permite que el marco DSA pueda aplicarse a varios escenarios, desde escenarios macrocelulares donde típicamente se emplea un control centralizado, a futuros escenarios con femtoceldas donde los nodos son prácticamente independientes y requieren de decisiones autónomas a nivel de celda para la asignación de espectro. La tarea de decisión del marco DSA reside en las estrategias DSA propuestas, donde una de ellas se basa en el aprendizaje máquina para explotar el conocimiento adquirido previamente en el pasado. Además, esta estrategia tiende a seleccionar una asignación de espectro óptima en el sentido de que maximiza una señal de recompensa definida apropiadamente en términos de métricas del funcionamiento de la red (e.g., eficiencia espectral, SINR, entre otras). Ciertamente, la autoorganización y el aprendizaje máquina en el contexto de la asignación de espectro en interfaces radio basadas en OFDMA se han explotado poco y constituyen así una novedad importante derivada del trabajo de esta tesis.Los resultados revelan importantes mejoras sobre estrategias del estado del arte en términos de eficiencia espectral (en bits/s/Hz), satisfacción de la calidad de servicio de los usuarios, fairness entre el throughput obtenido por los usuarios, y la capacidad para generar oportunidades para el uso secundario del espectro en grandes áreas geográficas. También, el marco DSA propuesto basado en autoorganización muestra atractivas capacidades desde la perspectiva del despliegue inicial, donde los nodos son capaces de autoconfigurarse después de su encendido introduciendo un impacto mínimo en sistema ya desplegado. Así el marco propuesto constituye una contribución práctica para solucionar el despliegue de millares de femtoceldas en un escenario macrocelular. / Next fourth generation (4G) of cellular mobile networks envisage a radio interface based on OFDMA (Orthogonal Frequency Division Multiple Access). OFDMA offers frequency diversity and robustness against multipath channel propagation thanks to the division of a wide bandwidth into small OFDMA frequency resources, so that an efficient spectrum usage is attained. However, one important challenge in a 4G OFDMA-based radio interface of a cellular network is the way in which OFDMA frequency resources are assigned to cells. First, intercell interference must be mitigated to achieve the highest spectral efficiency. Second, traffic loads could vary along time and space, so typical fixed spectrum assignment patterns (i.e., frequency planning) could lead to lack of spectrum resources in some cells or underutilization of them in others. Third, future regulatory spectrum frameworks will change the mindset about the usage of the spectrum by planning the co-existence of primary (licensees) and secondary users of the spectrum in the same geographical area. Hence, an adequate primary management of the spectrum could ease the appearance of spectrum usage opportunities for secondary users at the same time that the primary operator could obtain a new revenue income for that usage. Finally, future cellular scenarios will tend to be decentralized, especially with the appearance of new femtocell deployments (short-range user-deployed access points in the operator's licensed spectrum band), where a high degree of independency when deciding the usage of OFDMA frequency resources will be needed, since, obviously, centralized frequency planning tasks has little practical sense in those scenarios.This thesis contributes to the research on the spectrum assignment in 4G OFDMA-based mobile cellular networks by proposing a solution to dynamically manage the cell-by-cell spectrum assignment. To this end, adequate Dynamic Spectrum Assignment (DSA) strategies and a practical framework to execute them are proposed. In order to reduce operational costs and to reduce human intervention, the DSA framework has been designed based on self-organization so that the network is able to autonomously (i) observe the performance of current spectrum assignment, (ii) analyze if a new spectrum assignment is needed, and (iii) decide a new spectrum assignment to better adapt to networks conditions. Furthermore, a centralized and decentralized functional architecture is proposed so that the framework can be applied to a vast number of scenarios, ranging from typical macrocell scenarios where centralized control is employed, to future femtocell scenarios where nodes are almost independent and require autonomous spectrum assignment decisions at the cell level. The decision task of the framework resides on proposed DSA strategies, where one of them is based on machine learning to exploit knowledge previously acquired in the past. Moreover, this machine learning strategy tends to select a spectrum assignment that is optimal in the sense that maximizes a given reward signal appropriately defined in terms of network performance metrics (e.g., spectral efficiency, SINR, among others). Certainly, self-organization and machine learning on the context of spectrum assignment in OFDMA based radio interfaces have been little exploited and thus constitutes a major novelty of the work of this thesis.Performance results reveal important improvements over state-of-the-art strategies in terms of spectral efficiency (i.e. in bits/s/Hz), users' QoS satisfaction, fairness between the throughput obtained by users, and capacity for generating opportunities for secondary spectrum usage in large geographical areas. Also, the proposed DSA framework, based on self-organization, demonstrates appealing capabilities from the perspective of initial deployment, where nodes are able to self-configure after switch-on introducing a minimal impact on the already deployed system, being then a practical contribution to solve the deployment of thousands of femtocells in macrocell environments.
15

Transparent Protection of Data

Sebé Feixas, Francesc 07 February 2003 (has links)
Aquesta tesi tracta la protecció de dades quan aquestes han de ser lliurades a usuaris en qui no es té absoluta confiança. En aquesta situació, les dades s'han de protegir de manera que segueixin essent utilitzables. Aquesta protecció ha de ser imperceptible, per tal de no destorbar la utilització correcta de les dades, i alhora efectiva, protegint contra la utilització no autoritzada d'aquestes.L'estudi es divideix tenint en compte els dos tipus de dades la protecció transparent de les quals s'estudia: continguts multimèdia i microdades estadístiques.Pel que fa a dades multimèdia, es tracta la seva protecció des de dues vessants: la protecció del copyright i la protecció de la integritat i l'autentificació.En comerç electrònic de continguts multimèdia, els comerciants venen dades a usuaris en qui no confien plenament i que és possible que en facin còpies il·legals. Aquest fet fa que sigui necessari protegir la propietat intel·lectual d'aquests productes. Centrant-se en imatges digitals, es presenten diverses contribucions a les dues principals tècniques de protecció del copyright electrònic: marca d'aigua i empremta digital.Concretament, pel que fa a marca d'aigua, es presenten dos nous esquemes per imatges digitals. El primer és semi-cec i robust contra atacs de compresió, filtratge i escalat. El segon és cec i robust contra atacs de compresió, filtratge, escalat i distorsió geomètrica moderada. Seguidament, es proposa una nova tècnica basada en mesclar objectes marcats que permet combinar i augmentar la robustesa de diferents esquemes de marca d'aigua actuals.En empremta digital, es presenta una construcció per obtenir codis binaris segurs contra atacs de confabulació de fins a tres usuaris deshonestos. La proposta actual obté, per un nombre moderat de possibles compradors, paraules codi més curtes que les obtingudes fins al moment.Freqüentment, els continguts multimèdia es publiquen en llocs de poca confiança on poden ser alterats. En aquestes situacions, la marca d'aigua es pot utilitzar per protegir dades proporcionant-los integritat i autenticació. Es demostra l'aplicabilitat de l'algorisme de marca d'aigua basat en expansió d'espectre en el domini espacial per proporcionar, de forma transparent, autenticació i integritat sense pèrdua a imatges digitals. L'altre tipus de dades tractades en aquesta tesi són les microdades estadístiques.Quan fitxers amb dades estadístiques que contenen informació sobre entitats individuals són lliurats per al seu estudi, és necessari protegir la privacitat d'aquestes entitats. Aquest tipus de dades s'han de lliurar de manera que es combini la utilitat estadística amb la protecció de la privacitat de les entitats afectades. Els mètodes per pertorbar dades amb aquest objectiu s'anomenen mètodes de control del risc de revelació estadística. En aquest camp, es proposa una modificació d'una mètrica existent per mesurar la pèrdua d'informació i el risc de revelació per tal que permeti avaluar mètodes que generen fitxers emmascarats amb un nombre de registres diferent a l'original. Es proposa també un algorisme per post-processar fitxers de dades emmascarades per tal de reduir la pèrdua d'informació mantenint un risc de revelació similar. D'aquesta manera s'aconsegueix millorar els dos millors mètodes d'emmascarament actuals: 'microagregació multivariant' i 'intercanvi de rangs'.Finalment, es presenta una nova aplicació per proporcionar accés multinivell a dades de precisió crítica. D'aquesta manera, les dades protegides es fan disponibles a diferents usuaris, que segons el seu nivell d'autorització, podran eliminar part de la protecció obtenint dades de millor qualitat. / This dissertation is about protection of data that have to be made available to possibly dishonest users. Data must be protected while keeping its usability. Such protection must be imperceptible, so as not to disrupt correct use of data, and effective against unauthorized uses. The study is divided according to the two kinds of data whose transparent protection is studied: multimedia content and statistical microdata.Regarding multimedia content, protection is addressed in two ways: 1)copyright protection; 2) integrity protection and authentication.In electronic commerce of multimedia content, merchants sell data to untrusted buyers that may redistribute it. In this respect, intellectual property rights of content providers must be ensured. Focusing on digital images, several contributions are presented on the two main electronic copyright protection techniques: watermarking and fingerprinting.Two new schemes for watermarking for digital images are presented. The first is semi-public and robust against compression, filtering and scaling attacks. The second one is oblivious and robust against compression, filtering, scaling and moderate geometric distortion attacks. Next, a new technique based on mixture of watermarked digital objects is proposed that allows robustness to be increased by combining robustness properties of different current watermarking schemes.In the field of fingerprinting, a new construction to obtain binary collusion-secure fingerprinting codes robust against collusions of up to three buyers is presented. This construction provides, for a moderate number of possible buyers, shorter codewords than those offered by current proposals.Rather often, multimedia contents are published in untrusted sites where they may suffer malicious alterations. In this situation, watermarking can be applied to protecting data in order to provide integrity and authentication. A spatial-domain spread-spectrum watermarking algorithm is described and proven suitable for lossless image authentication.The other kind of data addressed in this dissertation are statistical microdata.When statistical files containing information about individual entities are released for public use, privacy is a major concern. Such data files must be released in a way that combines statistical utility and protection of the privacy of entities concerned. Methods to perturb data in this way are called statistical disclosure control methods. In this field, a modification to a current score to measure information loss and disclosure risk is proposed that allows masked data sets with a number of records not equal to the number of records of the original data set to be considered.Next, a post-masking optimization procedure which reduces information loss while keeping disclosure risk approximately unchanged is proposed. Through this procedure, the two best performing masking methods are enhanced: 'multivariate microaggregation' and 'rankswapping'.Finally, a novel application to providing multilevel access to precision-critical data is presented. In this way, protected data are made available to different users, who, depending on their clearance, can remove part of the noise introduced by protection, thus obtaining better data quality.
16

Desing and Evaluation of Certificate Revocation Systems

Muñoz Tapia, José L. (José Luis) 26 November 2003 (has links)
Este trabajo presenta tanto el estado del arte como un análisis de los principales sistemas de revocación de certificados digitales. El hecho de comprender bien el mecanismo de revocación de un certificado es importante tanto para los proveedores de servicios PKI como para los usuarios finales de la PKI: una mejor comprensión de las complejidades del sistema de revocación permite a estas entidades mejorar su proceso de decisión a la hora de aceptar o rechazar un certificado teniendo en cuenta la gran cantidad de variables inherentes en los sistemas de revocación. La revocación de certificados se presenta como uno de los problemas más complejos a resolver en toda la PKI. Por tanto este aspecto se está convirtiendo en un punto crucial para el amplio desarrollo de las PKIs. Hay estudios que incluso argumentan que los costes de la PKI derivan en gran medida de la administración de la revocación.Esto nos ha motivado para desarrollar nuevas propuestas. En este sentido, hemos desarrollado tres propuestas: H-OCSP (propuesta de mejora basada en el estándar OCSP), AD-MHT (propuesta basada en los árboles de hash de Merkle) y E-MHT (propuesta que aglutina varios mecanismos que permiten mejorar la eficiencia de los sistemas tradicionales basados en el árbol de hash de Merkle). Las propuestas que se plantean en esta tesis no son solo un conjunto de mecanismos teóricos sino que son también sistemas prácticos que han sido implementados como parte de una plataforma de pruebas llamada Cervantes. El diseño de Cervantes permite además encajar cualquier otro tipo de sistema de revocación sin cambios significativos en la estructura o el código fuente de la plataforma. En particular, en esta tesis se detalla como se han implementado los dos grandes estándares de revocación: CRL y OCSP y como se han implementado las propuestas realizadas. Finalmente utilizando Cervantes se pueden observar resultados de rendimiento para todos los sistemas estudiados y en particular nuestras propuestas han demostrado finalmente ser más escalables y eficientes en tratamiento de la información de revocación que las propuestas anteriores. / Certificates are necessary but not sufficient to secure transactions between parties. The Public Key Infrastructure (PKI) has to provide its users the ability to check, at the time of usage, that certificates are still valid (not revoked). So understanding revocation is an important concern to both PKI service providers and end users. By a better understanding of the complexities of certificate revocation, certificate-using entities can improve their decision-making process in order to accept or reject a certain certificate. In this sense, this thesis presents a comprehensive survey and analysis of the main existing revocation schemes. Furthermore, the certificate revocation represents one of the hardest scalability problems of the whole PKI; so this aspect is getting more and more crucial with the development of wide spread PKIs. There are studies that even argue that the running expenses of a PKI derives mainly from administering revocation. This motivate us to propose scalable, timely, secure, and cost-effective systems to manage the revocation information. In this respect, we have three new proposals: H-OCSP (which is a modification over the standard OCSP), AD-MHT (which is based on the Merkle Hash Tree) and E-MHT (which agglutinates several mechanisms that enhance the efficiency of traditional MHT-based systems). Our proposals are not only a set of theoretical mechanisms but they are also practical systems that have been implemented inside a Java test-bed called Cervantes (Certificate Validation Test-bed). The design of Cervantes allows it to fit any kind of revocation system without significative changes in the structure or the source code of the platform. Finally using Cervantes we are able to obtain performance results about each system developed.
17

Contribución a la protección de agentes móviles frente a hosts maliciosos. Detección de ataques y políticas de castigo

Esparza Martín, Óscar 07 July 2004 (has links)
Este trabajo presenta tanto el estado del arte como el análisis de las principales propuestas de protección de agentes móviles frente a los ataques de la plataforma de ejecución. La comprensión del problema de los hosts maliciosos y la dificultad que presenta su resolución es importante para entender que todavía no exista una propuesta que dé solución global a dicho problema. Esto sin duda está limitando el uso de los agentes móviles en sistemas abiertos como Internet.Esta carencia en el ámbito de la seguridad nos ha motivado a desarrollar nuevas propuestas de protección de agentes. Dado que consideramos que las propuestas que tratan de evitar los ataques son demasiado costosas computacionalmente o imposibles de implementar en un sistema real, centraremos nuestros esfuerzos en propuestas que traten de detectar ataques. En ese sentido, se introducen tres nuevas aportaciones que pretenden contribuir a solucionar el problema de los hosts maliciosos. Como primera contribución de la Tesis se introduce un Protocolo de Detección de Sospechosos (SDP) para mejorar algunos aspectos de la propuesta de detección de ataques más conocida, la de las trazas criptográficas de Vigna. No sólo se ha realizado el estudio teórico de SDP, sino que se dispone de una implementación con la cual se han podido realizar pruebas del coste que supone, con resultados positivos. Sin embargo, consideramos que el anterior mecanismo conjunto todavía es demasiado costoso computacionalmente. Por esa razón y como segunda contribución se presenta un mecanismo propio de detección de ataques alternativo al anterior y más ligero computacionalmente. Dicho mecanismo está basado en el empotrado de marcas de agua en el agente, esto es, Watermarking de Agentes Móviles (MAW). Dado que los mecanismos de detección son poco útiles si no hay posibilidad de castigar a los hosts maliciosos, como tercera contribución se presenta una nueva entidad sancionadora, la Autoridad de Revocación de Hosts (HoRA).La implementación de la HoRA está todavía en desarrollo, con lo cual no se han podido realizar las pruebas de evaluación del rendimiento.
18

Hierarchical region based processing of images and video sequences: application to filtering, segmentation and information retrieval

Garrido Ostermann, Luís 14 June 2002 (has links)
Este trabajo estudia la utilidad de representaciones jerárquicas basadas en regiones para el procesado de imagen y de secuencias de vídeo. Las representaciones basadas en regiones ofrecen una forma de realizar un primer nivel de abstracción y reducir el número de elementos a procesar con respecto a la representación clásica basada en el pixel. En este trabajo se revisan las dos representaciones que han demostrado ser de utilidad para el procesado basado en regiones, a saber el grafo de regiones adyacentes y el árbol, y se discute por qué las representaciones basadas en árboles son más adecuadas para nuestro propósito. De hecho, los árboles permiten la representación de la imagen de forma jerárquica y pueden ser aplicadas sobre éste técnicas eficientes y complejas. En este trabajo se discuten dos cuestiones principales: cómo puede ser creada la representación jerárquica a partir de una imagen determinada y cómo se puede manipular o procesar el árbol.Se han desarrollado dos representaciones basadas en árboles: el Árbol de Máximos, y el Árbol de Particiones Binario. El Árbol de Máximos estructura de forma compacta las componentes conexas que surgen de todos los posibles conjuntos de niveles de una imagen de nivel de gris. Es una representación adecuada para la implementación de operadores conexos antiextensivos, desde operadores clásicos (por ejemplo, filtro de área) hasta operadores nuevos (como el filtro de movimiento desarrollado en este trabajo). El Árbol de Particiones Binario estructura el conjunto de regiones que se obtiene durante la ejecución de un algoritmo de fusión basado en regiones. Desarrollado para superar alguno de los inconvenientes impuestos por el árbol de Máximos -- en particular la falta de flexibilidad de la creación del árbol y la auto-dualidad de la representación del árbol --, ha demostrado ser una representación apta para un gran número de aplicaciones, tal y como se muestra en este trabajo.Las estrategias de procesado se basan en técnicas de poda. Las técnicas de poda eliminan algunas ramas del árbol basándose en un algoritmo de análisis aplicado a los nodos del árbol. Las técnicas de poda aplicadas al árbol de Máximos permiten obtener operadores anti-extensivos, mientras que para el caso del árbol de Particiones Binario se obtienen operadores auto-duales si éste ha sido creado de forma auto-dual. Las técnicas de poda desarrolladas en este trabajo están dirigidas hacia las siguiente aplicaciones: filtrado, segmentación y recuperación de datos basada en el contenido.Las aplicaciones de filtrado (en el contexto de los operadores conexos) y segmentación están basados en el mismo principio: los nodos del árbol son analizados de acuerdo a un criterio determinado, y la decisión de eliminar o preservar un nodo se basada normalmente en un umbral aplicado sobre la anterior medida del criterio. La poda se realiza entonces de acuerdo con la ésta decisión. Como resultado, la imagen asociada al árbol podado representa una versión filtrada o segmentada de la imagen original de acuerdo con el criterio seleccionado. Alguno de los criterios discutidos en este trabajo están basados, por ejemplo, en área, movimiento, marcador & propagación o una estrategia de tasa-distorsión. El problema de la falta de robustez de las estrategias clásicas para criterios no crecientes es estudiado y solucionado gracias a un algoritmo de optimización basado en el algoritmo de Viterbi.La recuperación de imágenes basada en el contenido es la tercera aplicación en la que nos hemos centrado en este trabajo. Las representaciones jerárquicas basadas en regiones son particularmente adecuadas para este propósito ya que permiten representar la imagen a diferentes escalas de resolución, y por lo tanto las regiones asociadas a una imagen pueden ser descritas a diferentes escalas de resolución. En este trabajo nos centramos en un sistema de recuperación de imágenes que soporta preguntas de bajo nivel basadas en descriptores visuales y relaciones espaciales. Para ello, se adjuntan descriptores de región a los nodos del árbol. Se discuten dos tipos de preguntas: pregunta basada en una región, en el que la pregunta esta formada por una región, y pregunta basada en múltiples regiones, en el que la pregunta esta formada por un conjunto de regiones. En el primero la recuperación se realiza utilizando descriptores visuales, mientras que en el segundo se utilizan descriptores visuales y relaciones espaciales. Además, se presenta una estrategia de realimentación por relevancia para eludir la necesidad de establecer manualmente el peso asociado a cada uno de los descriptores.Un aspecto importante que se ha tenido en cuenta a lo largo de este trabajo es la implementación eficiente de los algoritmos desarrollados tanto para la creación como el procesado del árbol. En el caso de la creación del árbol, la eficiencia se obtiene principalmente gracias al uso de colas jerárquicas, mientras que en el procesado se utilizan algoritmos basados en estrategias recursivas para obtener algoritmos eficientes. / This work discusses the usefulness of hierarchical region based representations for image and video processing. Region based representations offer a way to perform a first level of abstraction and reduce the number of elements to process with respect to the classical pixel based representation. In this work the two representations that have demonstrated to be useful for region based processing are reviewed, namely region adjacency graphs and trees, and it is discussed why tree based representations are better suited for our purpose. In fact, trees allow representing the image in a hierarchical way and efficient and complex processing techniques can be applied on it. Two major issues are discussed in this work: how the hierarchical representation may be created from a given image and how the tree may be manipulated or processed.Two tree based representations have been developed: the Max-Tree, and the Binary Partition Tree. The Max-Tree structures in a compact way the connected components that arise from all possible level sets from a gray-level image. It is suitable for the implementation of anti-extensive connected operators, ranging from classical ones (for instance, area filter) to new ones (such as the motion filter developed in this work). The Binary Partition Tree structures the set of regions that are obtained during the execution of a region merging algorithm. Developed to overcome some of the drawbacks imposed by the Max-Tree -- in particular the lack of flexibility of the tree creation and the self-duality of the tree representation --, it has demonstrated to be a representation useful for a rather large range of applications, as it is shown in this work.Processing strategies are focused on pruning techniques. Pruning techniques remove some of the branches of the tree based on an analysis algorithm applied on the nodes of the tree. Pruning techniques applied on the Max-Tree lead to anti-extensive operators, whereas self-dual operators are obtained on the Binary Partition Tree, if the tree is created in a self-dual manner. The pruning techniques that have been developed in this work are directed to the following applications: filtering, segmentation and content based image retrieval.The filtering (in the context of connected operators) and segmentation applications are based on the same principle: the nodes of the tree are analyzed according to a fixed criterion, and the decision to remove or preserve a node usually relies on a threshold applied on the former measured criterion. Pruning is then performed according to the previous decision. As a result, the image associated to the pruned tree represents a filtered or segmented version of the original image according to the selected criterion. Some of the criteria that are discussed in this work are based, for instance, on area, motion, marker & propagation or a rate-distortion strategy. The problem of the lack of robustness of classical decision approaches of non-increasing criteria is discussed and solved by means of an optimization strategy based on the Viterbi algorithm.Content based image retrieval is the third application we have focused on in this work. Hierarchical region based representations are particularly well suited for this purpose since they allow to represent the image at different scales of resolution, and thus the regions of the image can be described at different scales of resolution. In this work we focus on an image retrieval system which supports low level queries based on visual descriptors and spatial relationships. For that purpose, region descriptors are attached to the nodes of the tree. Two types of queries are discussed: single region query, in which the query is made up of one region and, multiple region query, in which the query is made up of a set of regions. In the former visual descriptors are used to perform the retrieval whereas visual descriptors and spatial relationships are used in the latter case. Moreover, a relevance feedback approach is presented to avoid the need of manually setting the weights associated to each descriptor.An important aspect that has been taken into account throughout this work is the efficient implementation of the algorithms that have been developed for both creation and processing of the tree. In the case of the tree creation, efficiency has been obtained mainly due to the use of hierarchical queues, whereas in the processing step analysis algorithms based on recursive strategies are used to get efficient algorithms.
19

Lidar remote sensing of pesticide spray drift

Gregorio López, Eduard 27 November 2012 (has links)
En aquesta tesi doctoral es proposa utilitzar la tècnica LIDAR (Light Detection And Ranging) per estudiar la deriva de pesticides. A diferència dels col·lectors in situ, aquesta tècnica permet mesurar els aerosols de forma remota, amb elevada resolució temporal i en distància. Els objectius d’aquesta tesi són (1) dissenyar un sistema lidar específic per la mesura de la deriva i (2) avaluar la capacitat d’aquesta tècnica per quantificar la concentració en els núvols de pesticides. Per la consecució de l’objectiu (1) s’ha elaborat una metodologia de disseny, validada mitjançant la construcció d’un prototipus de ceilòmetre lidar biaxial. Partint d’aquesta metodologia s’han establert els paràmetres de disseny del sistema específic per mesurar la deriva: longitud d’ona de 1550 nm, energia per pols igual a 25 μJ, etc. Respecte a l’objectiu (2), es proposa un model teòric que relaciona les mesures lidar de la deriva amb les obtingudes utilitzant col·lectors passius. La relació entre els dos tipus de sensors també s’ha estudiat experimentalment. Les mesures van mostrar que per a cada assaig existeix una elevada correlació lineal (R2≈0.9) entre el senyal lidar i els col·lectors. / En esta tesis doctoral se propone utilizar la técnica LIDAR (LIght Detection And Ranging) para monitorizar la deriva de pesticidas. A diferencia de los colectores in situ, esta técnica permite medir los aerosoles de forma remota, con elevada resolución temporal y en distancia. Los objetivos de esta tesis son (1) diseñar un sistema lidar específico para la medida de la deriva y (2) evaluar la capacidad de esta técnica para cuantificar la concentración en las plumas de pesticidas. Para la consecución del objetivo (1) se ha elaborado una metodología de diseño, validada mediante la construcción de un prototipo de ceilómetro lidar biaxial. Partiendo de esta metodología se han establecido los parámetros de diseño del sistema lidar específico para medir la deriva: longitud de onda de 1550 nm, energía por pulso igual a 25 μJ, etc. Respecto al objetivo (2), se propone un modelo teórico que relaciona las medidas lidar de la deriva con las obtenidas utilizando colectores pasivos. La relación entre ambos tipos de sensores también ha sido estudiada experimentalmente. Las medidas mostraron que para cada ensayo existe una elevada correlación lineal (R2≈0.9) entre la señal lidar y los colectores. / This doctoral thesis proposes the use of the LIDAR (LIght Detection And Ranging) technique for spray drift monitoring. Unlike in situ collectors, this technique enables remote measurement of aerosols with high temporal and range resolution. The objectives of this thesis are as follows: (1) the design of a lidar system specifically for the remote sensing of pesticide spray drift and (2) assessment of the capacity of lidar technology to quantify droplet concentration in drift clouds. For the purposes of objective (1), a design methodology was elaborated. This methodology was validated with the construction of a biaxial lidar ceilometer prototype. Taking this methodology as a starting point the design parameters of a lidar system specifically for spray drift measurement were established: 1550 nm wavelength, 25 μJ de pulse energy, etc. As for objective (2), it is proposed a quantitative analytical model which relates the lidar spray drift measurements with those obtained using passive collectors. The relationship between the two sensor types was also studied experimentally. The measurements showed that for each test there is a high linear correlation (R2≈0.9) between the lidar signal and the collectors
20

Channel state Information and joint transmitter-receiver design in multi-antenna systems

Pascual Iserte, Antonio 17 February 2005 (has links)
Esta tesis aborda el problema del diseño de sistemas multiantena, donde el caso más general corresponde a un canal multi-input-multi-output (MIMO) con un transmisor y un receptor con más de una antena. La ventaja de estos sistemas es que ofrecen un rendimiento mucho mejor que los de una única antena, tanto en términos de calidad en la transmisión como en capacidad entendida como número de usuarios a los que se les puede prestar servicio simultáneamente.El objetivo es diseñar conjuntamente el transmisor y el receptor, lo que depende directamente de la calidad y la cantidad de información del canal de la que se dispone. En esta tesis se analiza el impacto de dicha información en el diseño.Primero se ha estudiado un sistema MIMO de un único usuario usando la modulación orthogonal frequency division multiplexing (OFDM) y asumiendo un conocimiento perfecto del canal en ambos extremos. La arquitectura propuesta se basa en conformación conjunta por portadora, calculándose los conformadores óptimos y proponiéndose diversas estrategias de distribución de potencia entre las portadoras con una baja complejidad. Se han analizado también las relaciones asintóticas de estas distribuciones de potencia con otras soluciones clásicas con mayor coste.El diseño anterior se ha extendido a sistemas MIMO multiusuario, donde todos los terminales en el escenario tienen más de una antena y la información del canal es perfecta. El objetivo es la minimización de la potencia total transmitida sujeto a restricciones de tasa de error máxima para cada enlace. El problema matemático obtenido es no convexo, por lo que estrategias clásicas basadas en algoritmos de gradiente o de optimización sucesiva pueden llevar a soluciones subóptimas. Como posible alternativa se ha propuesto la aplicación de simulated annealing, una potente herramienta heurística y estocástica que permite hallar el diseño global óptimo incluso cuando el problema es no convexo.Los errores en la información de canal disponible pueden empeorar el rendimiento del sistema si éstos no se tienen en cuenta explícitamente durante el diseño. La degradación del sistema MIMO-OFDM de un único usuario se ha estudiado en esta situación, obteniendo una expresión analítica de una cota superior de la máxima degradación relativa de la relación señal a ruido más interferencia.El rendimiento se puede mejorar usando técnicas robustas que tengan en cuenta la presencia de dichos errores. Existen dos aproximaciones clásicas: las Bayesianas y las maximin. En las soluciones Bayesianas el problema se formula estadísticamente, donde el objetivo es optimizar el valor medio de una función de rendimiento promediada sobre la estadística del canal real condicionado a su estimación. Por otro lado, los diseños maximin se caracterizan por optimizar el peor rendimiento para cualquier posible error en la información del canal dentro de una cierta región de incertidumbre que modela el conocimiento imperfecto del mismo.Se han mostrado dos ejemplos de diseños Bayesianos. Primero, una distribución de potencia en un sistema OFDM de una única antena que minimiza el valor medio de una cota superior de la tasa de error, y después un diseño de un transmisor multiantena con un banco de filtros que maximiza la relación señal a ruido media (SNR) o minimiza el error cuadrático medio.Finalmente, se ha obtenido el diseño robusto maximin de un sistema MIMO de un único usuario donde en el transmisor se combinan un código bloque ortogonal espacio-tiempo, una distribución de potencia y un banco de conformadores correspondientes a los modos espaciales del canal estimado. La distribución de potencia se ha diseñado acorde a una región de incertidumbre para el error en la estimación de canal de manera que se maximiza la peor SNR en dicha región. Posteriormente, este diseño se ha extendido al caso de modulaciones adaptativas y multiportadora, mostrando que el rendimiento es mejor que para los códigos bloque otrogonales y la conformación no robusta. / This Ph.D. dissertation addresses the design of multi-antenna systems, where the most general case corresponds to a transmitter and a receiver with more than one antenna, i.e., a multiple-input-multiple-output (MIMO) channel. The main advantage is that they can provide a much better performance than single-antenna systems, both in terms of transmission quality and system capacity, i.e., number of users that can be served simultaneously.The objective is to carry out a joint transmitter-receiver design, which depends directly on the quantity and the quality of the available channel state information (CSI). In this dissertation, the impact of the CSI on the design has been analyzed.First, a single-user MIMO communication system has been designed assuming the use of the orthogonal frequency division multiplexing (OFDM) modulation and according to a perfect CSI at both sides. The proposed architecture is based on a joint beamforming approach per carrier. The optimum beamvectors have been calculated and several power allocation strategies among the subcarriers have been derived. These power allocation solutions have been shown to be asymptotically related to other classical designs but with a much lower computational load.The previous design has been extended to multi-user communications, where the multi-antenna terminals in the scenario have a perfect CSI. The objective is the minimization of the total transmit power subject to maximum bit error rate (BER) constraints for each link. The mathematical optimization problem is non-convex and, therefore, classical solutions based on gradient search or alternate & maximize schemes may find a local suboptimum design. As a possible solution, the application of the simulated annealing technique has been proposed, a powerful stochastic optimization tool able to find the global optimum design even when the problem is non-convex.The errors in the available CSI may decrease importantly the system performance if they are not taken into account explicitly in the design. This degradation has been studied for the single-user MIMO-OFDM system. An analytical expression of an upper-bound on the maximum relative signal to noise plus interference ratio degradation has been found.The system performance can be improved when exploiting an imperfect CSI by using adequate robustness strategies. Two robust approaches have been proposed: the Bayesian and the maximin solutions. The Bayesian approach is a full statistical solution that optimizes the mean value of the performance function averaged over the statistics of the actual channel and the errors in the CSI. On the other hand, the maximin approach provides a design that optimizes the worst system performance for any possible error in a predefined uncertainty region.Two simple examples of Bayesian designs have been provided. First, a power allocation has been derived for an OFDM system with one transmit and one receive antenna minimizing the mean value of an upper-bound on the BER. Afterwards, a design of a multi-antenna transmitter with a bank of filters and a single-antenna receiver has been proposed, whose objective is either the maximization of the mean signal to noise ratio (SNR) or the minimization of the mean square error.Finally, a robust maximin design has been proposed for a single-user MIMO system, in which the transmitter is based on the combination of an orthogonal space time block code (OSTBC), a power allocation stage, and a set of beamformers coupling the transmission through the estimated channel eigenmodes. The power allocation has been found according to a channel estimate and an uncertainty region for the error in this estimate, so that the worst SNR for any error in the uncertainty region is maximized. This design has been then extended and applied to adaptive modulation schemes and multicarrier modulations, showing that the performance is much better than that achieved by a pure OSTBC solution or a non-robust beamforming scheme.

Page generated in 0.1147 seconds