• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 8
  • Tagged with
  • 17
  • 17
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 22 September 2021 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details the devolopment of a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. This research presents the study of the min-sum algorithm and the design of the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it focused exclusively in the prototyping of the inner LDPC decoder and targets FPGA as platform. A variety of design strategies are applied in the design of the core, including the optimal selection of the architecture and the schedule policy, the design of the control unit as a Algorithmic State Machine (ASM) and the inclusion of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. The selected features for this work are code length of 64800 bits and code rate equal to 1/2. The selected architecture is partially parallel with flooding schedule and operates over binary symbols (Galois field GF(2)). For testing, it assumes a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. The design has been validated using different verification methodologies according to complexity and predictability of each part or the whole system. Obtained results show the decoder, when configured for a maximum of 10 iterations, has a BER performance of 10-3 at a SNR of 2 dB, having an advantage of 1 dB respect to previous published Works [1]. It uses 60363 slice LUT and 23552 slice registers when synthesized in the Virtex 7 xc7vx550t FPGA from Xilinx, a reduction of 10% in resource usage from [1]. It achieves a maximum frequency operation of 194 Mhz and a throughput of 142.99 Mbps at worst case. The top energy per bit rate is 18.344 nJ/bit.
12

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 19 February 2020 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details research for a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. Specifically, this research presents the study of the min-sum algorithm and the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it is focused in the inner LDPC decoder and targets FPGA as platform. Furthermore, a variety of design strategies are considered as part of the scope of this work, including the optimal selection of the architecture and the schedule policy, the basis of the design characteristics of the control unit as a Algorithmic State Machine and the introduction of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. Under these constrains, it has been selected a set of features for a core design derived from work, such as code length of 64800 bits and code rate equal to 1/2. The proposed architecture is partially parallel with flooding schedule and operation over binary symbols (Galois field GF(2)). It takes the assumption of a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions.
13

Feature selection based on information theory

Bonev, Boyan 29 June 2010 (has links)
Along with the improvement of data acquisition techniques and the increasing computational capacity of computers, the dimensionality of the data grows higher. Pattern recognition methods have to deal with samples consisting of thousands of features and the reduction of their dimensionality becomes crucial to make them tractable. Feature selection is a technique for removing the irrelevant and noisy features and selecting a subset of features which describe better the samples and produce a better classification performance. It is becoming an essential part of most pattern recognition applications. / In this thesis we propose a feature selection method for supervised classification. The main contribution is the efficient use of information theory, which provides a solid theoretical framework for measuring the relation between the classes and the features. Mutual information is considered to be the best measure for such purpose. Traditionally it has been measured for ranking single features without taking into account the entire set of selected features. This is due to the computational complexity involved in estimating the mutual information. However, in most data sets the features are not independent and their combination provides much more information about the class, than the sum of their individual prediction power. / Methods based on density estimation can only be used for data sets with a very high number of samples and low number of features. Due to the curse of dimensionality, in a multi-dimensional feature space the amount of samples required for a reliable density estimation is very high. For this reason we analyse the use of different estimation methods which bypass the density estimation and estimate entropy directly from the set of samples. These methods allow us to efficiently evaluate sets of thousands of features. / For high-dimensional feature sets another problem is the search order of the feature space. All non-prohibitive computational cost algorithms search for a sub-optimal feature set. Greedy algorithms are the fastest and are the ones which incur less overfitting. We show that from the information theoretical perspective, a greedy backward selection algorithm conserves the amount of mutual information, even though the feature set is not the minimal one. / We also validate our method in several real-world applications. We apply feature selection to omnidirectional image classification through a novel approach. It is appearance-based and we select features from a bank of filters applied to different parts of the image. The context of the task is place recognition for mobile robotics. Another set of experiments are performed on microarrays from gene expression databases. The classification problem aims to predict the disease of a new patient. We present a comparison of the classification performance and the algorithms we present showed to outperform the existing ones. Finally, we succesfully apply feature selection to spectral graph classification. All the features we use are for unattributed graphs, which constitutes a contribution to the field. We also draw interesting conclusions about which spectral features matter most, under different experimental conditions. In the context of graph classification we also show important is the precise estimation of mutual information and we analyse its impact on the final classification results.
14

Viewpoint-driven Simplification of Polygonal Models using Information Theoretic measures

Castelló Boscá, Pascual 26 October 2007 (has links)
Los modelos poligonales actualmente dominan el campo de los gráficos interactivos. Esto es debido a su simplicidad matemática que permite que los más comunes algoritmos de visualización se implementen directamente en el hardware. Sin embargo la complejidad de estos modelos (medidos por el número de polígonos) crece más rápido que la capacidad del hardware grafico para visualizarlos interactivamente. Las técnicas de simplificación de polígonos ofrecen una solución para tratar estos modelos complejos. Estos métodos simplifican la geometría poligonal reduciendo el coste de visualización del modelo sin una pérdida del contenido visual del objeto. Esta idea aun sigue vigente aunque es una idea ya antigua en gráficos por ordenador. Durante los últimos años ha surgido un gran abanico de métodos de simplificación. La mayoría ha abordado el problema de la simplificación desde el punto de vista geométrico. Es decir, elaborando métricas que permiten guiar la simplificación calculando el error cometido en cada paso utilizando una medida puramente geométrica. Recientemente se han desarrollado nuevos métodos que intentan guiar el proceso de simplificación mediante una medida de similitud visual. En otras palabras, que los modelos simplificados se vean de forma parecida cuando se visualizan.El error geométrico es uno de los factores que influye en la similitud visual pero no es el único. Otros factores como las siluetas, las propias oclusiones y transparencias, los atributos de superficie, etc. influyen notablemente. En esta tesis se presenta un nuevo método de simplificación de mallas de polígonos. Este método realiza una simplificación guiada por el punto de vista, acometiendo una simplificación cuyo objetivo es garantizar la similitud visual. Esto permite que muchas aplicaciones cuyo objetivo sea la visualización interactiva como por ejemplo los juegos de ordenador se beneficien en buena medida. Se han propuesto diferentes métricas para conducir el método de simplificación desarrollado, todas ellas están basadas en la Teoría de la Información. El empleo de una métrica u otra permite llevar a cabo tres grandes tipos de simplificaciones. En el primer grupo se consigue una simplificación cuyo factor primordial es la similitud visual lo que conduce a la obtención de modelos simplificados cuya geometría oculta ha sido simplificada en gran medida o en su totalidad.En el segundo grupo de métricas se aborda la simplificación con el objetivo de la similitud visual pero respetando en mayor medida la geometría oculta del modelo. Con lo que el error geométrico es menor que en grupo anterior a costa de un mayor error visual. Finalmente, el tercer grupo permite que se pueda acometer una simplificación que intenta preservar las regiones visualmente salientes de la malla mediante la aplicación del concepto de saliency de malla, definido a partir de la divergencia de Jeshen-Shannon. Estas pequeñas regiones se mantienen mejor si se hace uso de este método, de otra forma serían eliminadas ya que tienen un coste de simplificación bajo.
15

Muerte en UCIP estimada con el índice “PRISM”: comparación de la exactitud diagnóstica de las predicciones realizadas con un modelo de regresión logística y una red neuronal artificial. Una propuesta bayesiana

Modesto i Alapont, Vicent 30 September 2011 (has links)
No description available.
16

Modelo no determinista para la auto-verificación de integridad de componentes de software

Nuñez Musa, Yulier 27 February 2013 (has links)
Las pérdidas monetarias por concepto de piratería de software alcanzan en la actualidad cifras millonarias. Por sólo citar un ejemplo, en el 2011 el valor comercial por este concepto ascendió a 63 billones de dólares, con un incremento de 4.2 billones con respecto al año anterior. En este ámbito, el software comercializado es sometido a ataques y como resultado, usuarios ilegítimos pueden hacer uso del mismo. Una vía para mitigar este problema desde el punto de vista tecnológico, es el empleo de técnicas de protección de software, entre las que se encuentran la ofuscación, el cifrado, las marcas de agua y la auto-verificación de integridad, entre otros. Dichas técnicas no son totalmente efectivas, debido principalmente a que la ejecución del software se realiza en una arquitectura insegura, sobre la que el atacante tiene un control total. La presente tesis se centra en las técnicas de protección dirigidas al control de integridad en ambientes de ejecución inseguros, específicamente la técnica de auto-verificación de integridad, que ofrece resistencia ante ataques dinámicos. Una limitante de esta técnica es que por sí sola no puede garantizar su privacidad, por lo que es necesario combinarla con otras técnicas para lograr dicho fin. Varias propuestas están dirigidas a complementar la auto-verificación de integridad con técnicas de ofuscación estructurales. Sin embargo, esto no es suficiente para ofrecer una alta resistencia ante ataques dinámicos, por lo que además es necesario incorporar una ofuscación funcional. En este contexto, se propone un modelo no determinista para la verificación de integridad de componentes de software. El modelo se basa en una red de auto-verificación, constituida por un componente de detección y un componente de respuesta. Ambos tienen un comportamiento no determinista, por lo que tanto las detecciones como las respuestas se ejecutan con cierta probabilidad. Igualmente, y ante la carencia de estrategias consensuadas para la estimación del grado de protección que ofrecen estos mecanismos, se ha optado por proponer un novedoso modelo de evaluación. En él se combina el concepto de Árbol de Ataque con aspectos de la Teoría de la Información, de forma que la estrategia es escalable y al mismo tiempo tiene en cuenta el no determinismo de la red. Por último, y como tercera contribución significativa del trabajo, se han establecido las directrices para el establecimiento de una Infraestructura de Protección de Software (Software Protection Infrastructure (SPI)). Dada la complejidad y el coste asociado a la incorporación de un mecanismo de protección en el proceso de desarrollo de software, la SPI permite simplificar y abaratar su integración mediante la aplicación automatizada de las mismas durante el proceso de compilación del software. La implementación de una SPI básica, permitió generar un prototipo de prueba del modelo no determinista y realizar un conjunto de evaluaciones experimentales aplicando para ello el modelo de evaluación propuesto. Los resultados indican una mejora de dos órdenes de magnitud en la resistencia y nivel de ofuscación funcional, respecto a un modelo equivalente de comportamiento determinista. Al respecto, se pudo concluir que un comportamiento no determinista es acertado tanto para retardar un ataque exitoso, como para minimizar el nivel de fuga de información. Este resultado es aplicable a la mejora de la resistencia ante ataques dinámicos y se presume que pueda ser extendido a otras técnicas de protección. Por otra parte, la infraestructura propuesta abre un espacio de investigación para la protección masiva de software, minimizando considerablemente el coste asociado a esta actividad y potenciando la especialización en las distintas disciplinas involucradas.
17

Probabilistic methods for multi-source and temporal biomedical data quality assessment

Sáez Silvestre, Carlos 05 April 2016 (has links)
[EN] Nowadays, biomedical research and decision making depend to a great extent on the data stored in information systems. As a consequence, a lack of data quality (DQ) may lead to suboptimal decisions, or hinder the derived research processes and outcomes. This thesis aims to the research and development of methods for assessing two DQ problems of special importance in Big Data and large-scale repositories, based on multi-institutional, cross-border infrastructures, and acquired during long periods of time: the variability of data probability distributions (PDFs) among different data sources-multi-source variability-and the variability of data PDFs over time-temporal variability. Variability in PDFs may be caused by differences in data acquisition methods, protocols or health care policies; systematic or random errors during data input and management; demographic differences in populations; or even falsified data. To date, these issues have received little attention as DQ problems nor count with adequate assessment methods. The developed methods aim to measure, detect and characterize variability dealing with multi-type, multivariate, multi-modal data, and not affected by large sample sizes. To this end, we defined an Information Theory and Geometry probabilistic framework based on the inference of non-parametric statistical manifolds from the normalized distances of PDFs among data sources and over time. Based on this, a number of contributions have been generated. For the multi-source variability assessment we have designed two metrics: the Global Probabilistic Deviation, which measures the degree of global variability among the PDFs of multiple sources-equivalent to the standard deviation among PDFs; and the Source Probabilistic Outlyingness, which measures the dissimilarity of the PDF of a single data source to a global latent average. They are based on the construction of a simplex geometrical figure (the maximum-dimensional statistical manifold) using the distances among sources, and complemented by the Multi-Source Variability plot, an exploratory visualization of that simplex which permits detecting grouping patterns among sources. The temporal variability method provides two main tools: the Information Geometric Temporal plot, an exploratory visualization of the temporal evolution of PDFs based on the projection of the statistical manifold from temporal batches; and the PDF Statistical Process Control, a monitoring and automatic change detection algorithm for PDFs. The methods have been applied to repositories in real case studies, including the Public Health Mortality and Cancer Registries of the Region of Valencia, Spain; the UCI Heart Disease; the United States NHDS; and Spanish Breast Cancer and an In-Vitro Fertilization datasets. The methods permitted discovering several findings such as partitions of the repositories in probabilistically separated temporal subgroups, punctual temporal anomalies due to anomalous data, and outlying and clustered data sources due to differences in populations or in practices. A software toolbox including the methods and the automated generation of DQ reports was developed. Finally, we defined the theoretical basis of a biomedical DQ evaluation framework, which have been used in the construction of quality assured infant feeding repositories, in the contextualization of data for their reuse in Clinical Decision Support Systems using an HL7-CDA wrapper; and in an on-line service for the DQ evaluation and rating of biomedical data repositories. The results of this thesis have been published in eight scientific contributions, including top-ranked journals and conferences. One of the journal publications was selected by the IMIA as one of the best of Health Information Systems in 2013. Additionally, the results have contributed to several research projects, and have leaded the way to the industrialization of the developed methods and approaches for the audit and control of biomedical DQ. / [ES] Actualmente, la investigación biomédica y toma de decisiones dependen en gran medida de los datos almacenados en los sistemas de información. En consecuencia, una falta de calidad de datos (CD) puede dar lugar a decisiones sub-óptimas o dificultar los procesos y resultados de las investigaciones derivadas. Esta tesis tiene como propósito la investigación y desarrollo de métodos para evaluar dos problemas especialmente importantes en repositorios de datos masivos (Big Data), basados en infraestructuras multi-céntricas, adquiridos durante largos periodos de tiempo: la variabilidad de las distribuciones de probabilidad (DPs) de los datos entre diferentes fuentes o sitios-variabilidad multi-fuente-y la variabilidad de las distribuciones de probabilidad de los datos a lo largo del tiempo-variabilidad temporal. La variabilidad en DPs puede estar causada por diferencias en los métodos de adquisición, protocolos o políticas de atención; errores sistemáticos o aleatorios en la entrada o gestión de datos; diferencias demográficas en poblaciones; o incluso por datos falsificados. Esta tesis aporta métodos para detectar, medir y caracterizar dicha variabilidad, tratando con datos multi-tipo, multivariantes y multi-modales, y sin ser afectados por tamaños muestrales grandes. Para ello, hemos definido un marco de Teoría y Geometría de la Información basado en la inferencia de variedades de Riemann no-paramétricas a partir de distancias normalizadas entre las PDs de varias fuentes de datos o a lo largo del tiempo. En consecuencia, se han aportado las siguientes contribuciones: Para evaluar la variabilidad multi-fuente se han definido dos métricas: la Global Probabilistic Deviation, la cual mide la variabilidad global entre las PDs de varias fuentes-equivalente a la desviación estándar entre PDs; y la Source Probabilistic Outlyingness, la cual mide la disimilaridad entre la DP de una fuente y un promedio global latente. Éstas se basan en un simplex construido mediante las distancias entre las PDs de las fuentes. En base a éste, se ha definido el Multi-Source Variability plot, visualización que permite detectar patrones de agrupamiento entre fuentes. El método de variabilidad temporal proporciona dos herramientas: el Information Geometric Temporal plot, visualización exploratoria de la evolución temporal de las PDs basada en la la variedad estadística de los lotes temporales; y el Control de Procesos Estadístico de PDs, algoritmo para la monitorización y detección automática de cambios en PDs. Los métodos han sido aplicados a casos de estudio reales, incluyendo: los Registros de Salud Pública de Mortalidad y Cáncer de la Comunidad Valenciana; los repositorios de enfermedades del corazón de UCI y NHDS de los Estados Unidos; y repositorios españoles de Cáncer de Mama y Fecundación In-Vitro. Los métodos detectaron hallazgos como particiones de repositorios en subgrupos probabilísticos temporales, anomalías temporales puntuales, y fuentes de datos agrupadas por diferencias en poblaciones y en prácticas. Se han desarrollado herramientas software incluyendo los métodos y la generación automática de informes. Finalmente, se ha definido la base teórica de un marco de CD biomédicos, el cual ha sido utilizado en la construcción de repositorios de calidad para la alimentación del lactante, en la contextualización de datos para el reuso en Sistemas de Ayuda a la Decisión Médica usando un wrapper HL7-CDA, y en un servicio on-line para la evaluación y clasificación de la CD de repositorios biomédicos. Los resultados de esta tesis han sido publicados en ocho contribuciones científicas (revistas indexadas y artículos en congresos), una de ellas seleccionada por la IMIA como una de las mejores publicaciones en Sistemas de Información de Salud en 2013. Los resultados han contribuido en varios proyectos de investigación, y facilitado los primeros pasos hacia la industrialización de las tecnologías / [CA] Actualment, la investigació biomèdica i presa de decisions depenen en gran mesura de les dades emmagatzemades en els sistemes d'informació. En conseqüència, una manca en la qualitat de les dades (QD) pot donar lloc a decisions sub-òptimes o dificultar els processos i resultats de les investigacions derivades. Aquesta tesi té com a propòsit la investigació i desenvolupament de mètodes per avaluar dos problemes especialment importants en repositoris de dades massius (Big Data) basats en infraestructures multi-institucionals o transfrontereres, adquirits durant llargs períodes de temps: la variabilitat de les distribucions de probabilitat (DPs) de les dades entre diferents fonts o llocs-variabilitat multi-font-i la variabilitat de les distribucions de probabilitat de les dades al llarg del temps-variabilitat temporal. La variabilitat en DPs pot estar causada per diferències en els mètodes d'adquisició, protocols o polítiques d'atenció; errors sistemàtics o aleatoris durant l'entrada o gestió de dades; diferències demogràfiques en les poblacions; o fins i tot per dades falsificades. Aquesta tesi aporta mètodes per detectar, mesurar i caracteritzar aquesta variabilitat, tractant amb dades multi-tipus, multivariants i multi-modals, i no sent afectats per mides mostrals grans. Per a això, hem definit un marc de Teoria i Geometria de la Informació basat en la inferència de varietats de Riemann no-paramètriques a partir de distàncies normalitzades entre les DPs de diverses fonts de dades o al llarg del temps. En conseqüència s'han aportat les següents contribucions: Per avaluar la variabilitat multi-font s'han definit dos mètriques: la Global Probabilistic Deviation, la qual mesura la variabilitat global entre les DPs de les diferents fonts-equivalent a la desviació estàndard entre DPs; i la Source Probabilistic Outlyingness, la qual mesura la dissimilaritat entre la DP d'una font de dades donada i una mitjana global latent. Aquestes estan basades en la construcció d'un simplex mitjançant les distàncies en les DPs entre fonts. Basat en aquest, s'ha definit el Multi-Source Variability plot, una visualització que permet detectar patrons d'agrupament entre fonts. El mètode de variabilitat temporal proporciona dues eines: l'Information Geometric Temporal plot, visualització exploratòria de l'evolució temporal de les distribucions de dades basada en la varietat estadística dels lots temporals; i el Statistical Process Control de DPs, algoritme per al monitoratge i detecció automàtica de canvis en les DPs de dades. Els mètodes han estat aplicats en repositoris de casos d'estudi reals, incloent: els Registres de Salut Pública de Mortalitat i Càncer de la Comunitat Valenciana; els repositoris de malalties del cor de UCI i NHDS dels Estats Units; i repositoris espanyols de Càncer de Mama i Fecundació In-Vitro. Els mètodes han detectat troballes com particions dels repositoris en subgrups probabilístics temporals, anomalies temporals puntuals, i fonts de dades anòmales i agrupades a causa de diferències en poblacions i en les pràctiques. S'han desenvolupat eines programari incloent els mètodes i la generació automàtica d'informes. Finalment, s'ha definit la base teòrica d'un marc de QD biomèdiques, el qual ha estat utilitzat en la construcció de repositoris de qualitat per l'alimentació del lactant, la contextualització de dades per a la reutilització en Sistemes d'Ajuda a la Decisió Mèdica usant un wrapper HL7-CDA, i en un servei on-line per a l'avaluació i classificació de la QD de repositoris biomèdics. Els resultats d'aquesta tesi han estat publicats en vuit contribucions científiques (revistes indexades i en articles en congressos), una de elles seleccionada per la IMIA com una de les millors publicacions en Sistemes d'Informació de Salut en 2013. Els resultats han contribuït en diversos projectes d'investigació, i han facilitat la industrialització de les tecnologies d / Sáez Silvestre, C. (2016). Probabilistic methods for multi-source and temporal biomedical data quality assessment [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62188 / TESIS / Premiado

Page generated in 0.0639 seconds