• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 30
  • 5
  • Tagged with
  • 67
  • 41
  • 41
  • 37
  • 27
  • 24
  • 23
  • 20
  • 17
  • 17
  • 16
  • 15
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

On Clustering and Evaluation of Narrow Domain Short-Test Corpora

Pinto Avendaño, David Eduardo 23 July 2008 (has links)
En este trabajo de tesis doctoral se investiga el problema del agrupamiento de conjuntos especiales de documentos llamados textos cortos de dominios restringidos. Para llevar a cabo esta tarea, se han analizados diversos corpora y métodos de agrupamiento. Mas aún, se han introducido algunas medidas de evaluación de corpus, técnicas de selección de términos y medidas para la validez de agrupamiento con la finalidad de estudiar los siguientes problemas: -Determinar la relativa dificultad de un corpus para ser agrupado y estudiar algunas de sus características como longitud de los textos, amplitud del dominio, estilometría, desequilibrio de clases y estructura. -Contribuir en el estado del arte sobre el agrupamiento de corpora compuesto de textos cortos de dominios restringidos El trabajo de investigación que se ha llevado a cabo se encuentra parcialmente enfocado en el "agrupamiento de textos cortos". Este tema se considera relevante dado el modo actual y futuro en que las personas tienden a usar un "lenguaje reducido" constituidos por textos cortos (por ejemplo, blogs, snippets, noticias y generación de mensajes de textos como el correo electrónico y el chat). Adicionalmente, se estudia la amplitud del dominio de corpora. En este sentido, un corpus puede ser considerado como restringido o amplio si el grado de traslape de vocabulario es alto o bajo, respectivamente. En la tarea de categorización, es bastante complejo lidiar con corpora de dominio restringido tales como artículos científicos, reportes técnicos, patentes, etc. El objetivo principal de este trabajo consiste en estudiar las posibles estrategias para tratar con los siguientes dos problemas: a) las bajas frecuencias de los términos del vocabulario en textos cortos, y b) el alto traslape de vocabulario asociado a dominios restringidos. Si bien, cada uno de los problemas anteriores es un reto suficientemente alto, cuando se trata con textos cortos de dominios restringidos, la complejidad del problema se incr / Pinto Avendaño, DE. (2008). On Clustering and Evaluation of Narrow Domain Short-Test Corpora [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2641 / Palancia
62

Crash recovery with partial amnesia failure model issues

De Juan Marín, Rubén 30 September 2008 (has links)
Replicated systems are a kind of distributed systems whose main goal is to ensure that computer systems are highly available, fault tolerant and provide high performance. One of the last trends in replication techniques managed by replication protocols, make use of Group Communication Sys- tem, and more specifically of the communication primitive atomic broadcast for developing more eficient replication protocols. An important aspect in these systems consists in how they manage the disconnection of nodes {which degrades their service{ and the connec- tion/reconnection of nodes for maintaining their original support. This task is delegated in replicated systems to recovery protocols. How it works de- pends specially on the failure model adopted. A model commonly used for systems managing large state is the crash-recovery with partial amnesia be- cause it implies short recovery periods. But, assuming it implies arising several problems. Most of them have been already solved in the literature: view management, abort of local transactions started in crashed nodes { when referring to transactional environments{ or for example the reinclu- sion of new nodes to the replicated system. Anyway, there is one problem related to the assumption of this second failure model that has not been completely considered: the amnesia phenomenon. Phenomenon that can lead to inconsistencies if it is not correctly managed. This work presents this inconsistency problem due to the amnesia and formalizes it, de ning the properties that must be ful lled for avoiding it and de ning possible solutions. Besides, it also presents and formalizes an inconsistency problem {due to the amnesia{ which appears under a speci c sequence of events allowed by the majority partition progress condition that will imply to stop the system, proposing the properties for overcoming it and proposing di erent solutions. As a consequence it proposes a new majority partition progress condition. In the sequel there is de / De Juan Marín, R. (2008). Crash recovery with partial amnesia failure model issues [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3302 / Palancia
63

Conceptual schemas generation from organizacional model in an automatic software production process

Martínez Rebollar, Alicia 30 September 2008 (has links)
Actualmente, la ingeniería de software ha propuesto múltiples técnicas para mejorar el desarrollo de software, sin embargo, la meta final no ha sido satisfecha. En muchos casos, el producto software no satisface las necesidades reales de los clientes finales del negocio donde el sistema operará. Uno de los problemas principales de los trabajos actuales es la carencia de un enfoque sistemático para mapear cada concepto de modelado del dominio del problema (modelos organizacionales), en sus correspondientes elementos conceptuales en el espacio de la solución (modelos conceptuales orientados a objetos). El principal objetivo de esta tesis es proveer un enfoque metodológico que permita generar modelos conceptuales y modelos de requisitos a partir de descripciones organizacionales. Se propone el uso de tres disciplinas, distintas pero complementarias (modelado organizacional, requisitos de software y modelado conceptual) para lograr este objetivo. La tesis describe un proceso de elicitación de requisitos que permite al usuario crear un modelo de negocios que representa la situación actual del negocio (requisitos tempranos). Nosotros consideramos que este modelo, el cual refleja la forma en la que se implementan actualmente los procesos de negocio, es la fuente correcta para determinar la funcionalidad esperada del sistema a desarrollar. Se propone también un proceso para identificar los elementos que son relevantes para ser automatizados a partir del modelo de negocio. Como resultado de este proceso se genera un modelo intermedio que representa los requisitos del sistema de software. Finalmente, presentamos un conjunto de guías sistemáticas para generar un esquema conceptual orientado a objetos a partir del modelo intermedio. Nosotros también exploramos, como solución alternativa, la generación de una especificación de requisitos tardíos a partir del modelo intermedio. / Martínez Rebollar, A. (2008). Conceptual schemas generation from organizacional model in an automatic software production process [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3304 / Palancia
64

Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos)

Cabello Espinosa, María Eugenia 15 December 2008 (has links)
Esta tesis presenta la aproximación denominada Baseline Oriented Modeling (BOM). BOM es un framework que genera automáticamente Sistemas Expertos (SE) basado en Líneas de Producto Software (LPS). En BOM, se generan aplicaciones en un dominio específico, basadas en la estructura y comportamiento de los SE, como modelos arquitectónicos PRISMA, utilizando técnicas de LPS. Este proceso implica, por un lado construir una Baseline (como repositorio que contiene todos los assets necesarios para construir un producto de la LPS), y por otro lado realizar el plan de producción de la LPS. BOM gestiona la especificación de la variabilidad y la funcionalidad en modelos separados, representados a través de modelos conceptuales. La variabilidad se maneja en dos pasos: i) en el primer paso la variabilidad del dominio se refleja en las arquitecturas base de la LPS, que comparten una arquitectura genérica, y ii) en el segundo paso la variabilidad del dominio de aplicación específico se instancia para obtener la arquitectura específica PRISMA como el producto final de la LPS. BOM sigue la iniciativa del Object Management Group (OMG) de Model-Driven Architecture (MDA) para construir modelos de dominio (como Modelos Independientes de Computación), que son transformados en modelos arquitectónicos PRISMA (como Modelos Independientes de Plataforma) y compilados a una aplicación ejecutable en .NET (como Modelos Específicos de Plataforma). Lenguajes Específicos de Dominio han sido utilizados para que la interfaz del usuario sea amigable, clara y sencilla. / Cabello Espinosa, ME. (2008). Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos) [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3793 / Palancia
65

Prisma: aspect-oriented software architectures

Pérez Benedí, Jenifer 07 May 2008 (has links)
Hoy en día, la complejidad de los sistemas software y la gran relevancia que han adquirido los requisitos no funcionales son retos que han de abordarse durante el proceso de desarrollo software. En los últimos años, estas propiedades han provocado un gran incremento en el tiempo y el personal necesario para llevar a cabo los procesos de desarrollo y mantenimiento del software. Por ello, existe un gran interés en mejorar dichos procesos. Esta tesis presenta un nuevo enfoque de desarrollo para sistemas software complejos. Dicho enfoque, llamado PRISMA, da soporte a estos nuevos retos y permite satisfacer la elevada competitividad del mercado. El enfoque PRISMA se ha materializado en un marco de trabajo formado por un modelo, un lenguaje, una metodología y un prototipo de herramienta CASE (Computer-Aided Software Engineering). El modelo de PRISMA combina dos aproximaciones para definir arquitecturas software: el Desarrollo de Software Basado en Componentes (DSBC) y el Desarrollo de Software Orientado a Aspectos (DSOA). Las principales aportaciones del modelo es la manera en la que integra ambas aproximaciones para obtener sus ventajas y su lenguaje formal. PRISMA tiene en cuenta los requisitos no funcionales desde las primeras etapas del ciclo de vida software y mejora su reutilización y el mantenimiento. Todo ello gracias a la descomposición que realiza de los sistemas software utilizando dos conceptos diferentes: aspectos y elementos arquitectónicos (componentes y conectores). PRISMA proporciona un Lenguaje de Descripción de Arquitecturas Orientado a Aspectos (LDAOA) formal para la especificación de arquitecturas software orientadas a aspectos. El LDAOA de PRISMA es independiente de cualquier tecnología y está basado en lenguajes formales para evitar la ambigüedad y poder aplicar técnicas de generación automática de código. La metodología de PRISMA apuesta por el desarrollo de software siguiendo el Paradigma de la Prototipación Automática mediante la aplicación del e / Pérez Benedí, J. (2006). Prisma: aspect-oriented software architectures [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1928 / Palancia
66

On the design of fast and efficient wavelet image coders with reduced memory usage

Oliver Gil, José Salvador 06 May 2008 (has links)
Image compression is of great importance in multimedia systems and applications because it drastically reduces bandwidth requirements for transmission and memory requirements for storage. Although earlier standards for image compression were based on the Discrete Cosine Transform (DCT), a recently developed mathematical technique, called Discrete Wavelet Transform (DWT), has been found to be more efficient for image coding. Despite improvements in compression efficiency, wavelet image coders significantly increase memory usage and complexity when compared with DCT-based coders. A major reason for the high memory requirements is that the usual algorithm to compute the wavelet transform requires the entire image to be in memory. Although some proposals reduce the memory usage, they present problems that hinder their implementation. In addition, some wavelet image coders, like SPIHT (which has become a benchmark for wavelet coding), always need to hold the entire image in memory. Regarding the complexity of the coders, SPIHT can be considered quite complex because it performs bit-plane coding with multiple image scans. The wavelet-based JPEG 2000 standard is still more complex because it improves coding efficiency through time-consuming methods, such as an iterative optimization algorithm based on the Lagrange multiplier method, and high-order context modeling. In this thesis, we aim to reduce memory usage and complexity in wavelet-based image coding, while preserving compression efficiency. To this end, a run-length encoder and a tree-based wavelet encoder are proposed. In addition, a new algorithm to efficiently compute the wavelet transform is presented. This algorithm achieves low memory consumption using line-by-line processing, and it employs recursion to automatically place the order in which the wavelet transform is computed, solving some synchronization problems that have not been tackled by previous proposals. The proposed encode / Oliver Gil, JS. (2006). On the design of fast and efficient wavelet image coders with reduced memory usage [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1826 / Palancia
67

Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces

Tirado Peláez, Pedro 04 September 2008 (has links)
En los últimos años se ha desarrollado una teoría matemática con propiedades robustas con el fin de fundamentar la Ciencia de la Computación. En este sentido, un avance significativo lo constituye el establecimiento de modelos matemáticos que miden la "distancia" entre programas y entre algoritmos, analizados según su complejidad computacional. En 1995, M. Schellekens inició el desarrollo de un modelo matemático para el análisis de la complejidad algorítmica basado en la construcción de una casi-métrica definida en el espacio de las funciones de complejidad, proporcionando una interpretación computacional adecuada del hecho de que un programa o algoritmo sea más eficiente que otro en todos su "inputs". Esta información puede extraerse en virtud del carácter asimétrico del modelo. Sin embargo, esta estructura no es aplicable al análisis de algoritmos cuya complejidad depende de dos parámetros. Por tanto, en esta tesis introduciremos un nuevo espacio casi-métrico de complejidad que proporcionará un modelo útil para el análisis de este tipo de algoritmos. Por otra parte, el espacio casi-métrico de complejidad no da una interpretación computacional del hecho de que un programa o algoritmo sea "sólo" asintóticamente más eficiente que otro. Los espacios casi-métricos difusos aportan un parámetro "t", cuya adecuada utilización puede originar una información extra sobre el proceso computacional a estudiar; por ello introduciremos la noción de casi-métrica difusa de complejidad, que proporciona un modelo satisfactorio para interpretar la eficiencia asintótica de las funciones de complejidad. En este contexto extenderemos los principales teoremas de punto fijo en espacios métricos difusos , utilizando una determinada noción de completitud, y obtendremos otros nuevos. Algunos de estos teoremas también se establecerán en el contexto general de los espacios casi-métricos difusos intuicionistas, de lo que resultarán condiciones de contracción menos fuertes. Los resultados obt / Tirado Peláez, P. (2008). Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2961 / Palancia

Page generated in 0.023 seconds