61 |
Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogoGriol Barres, David 07 May 2008 (has links)
El objetivo principal de la tesis que se presenta es el estudio y
desarrollo de diferentes metodologías para la gestión del diálogo
en sistemas de diálogo hablado. El principal reto planteado en la
tesis reside en el desarrollo de metodologías puramente
estadísticas para la gestión del diálogo, basadas en el
aprendizaje de un modelo a partir de un corpus de diálogos
etiquetados. En este campo, se presentan diferentes aproximaciones
para realizar la gestión, la mejora del modelo estadístico y la
evaluación del sistema del diálogo.
Para la implementación práctica de estas metodologías, en el
ámbito de una tarea específica, ha sido necesaria la adquisición y
etiquetado de un corpus de diálogos. El hecho de disponer de un
gran corpus de diálogos ha facilitado el aprendizaje y evaluación
del modelo de gestión desarrollado. Así mismo, se ha implementado
un sistema de diálogo completo, que permite evaluar el
funcionamiento práctico de las metodologías de gestión en
condiciones reales de uso.
Para evaluar las técnicas de gestión del diálogo se proponen
diferentes aproximaciones: la evaluación mediante usuarios reales;
la evaluación con el corpus adquirido, en el cual se han definido
unas particiones de entrenamiento y prueba; y la utilización de
técnicas de simulación de
usuarios. El simulador de usuario desarrollado
permite modelizar de forma estadística el proceso completo del
diálogo. En la aproximación que se presenta, tanto la obtención de
la respuesta del sistema como la generación del turno de usuario
se modelizan como un problema de clasificación, para el que se
codifica como entrada un conjunto de variables que representan el
estado actual del diálogo y como resultado de la clasificación se
obtienen las probabilidades de seleccionar cada una de las
respuestas (secuencia de actos de diálogo) definidas
respectivamente para el usuario y el sistema. / Griol Barres, D. (2007). Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1956
|
62 |
On Clustering and Evaluation of Narrow Domain Short-Test CorporaPinto Avendaño, David Eduardo 23 July 2008 (has links)
En este trabajo de tesis doctoral se investiga el problema del agrupamiento de conjuntos especiales de documentos llamados textos cortos de dominios restringidos.
Para llevar a cabo esta tarea, se han analizados diversos corpora y métodos de agrupamiento. Mas aún, se han introducido algunas medidas de evaluación de corpus, técnicas de selección de términos y medidas para la validez de agrupamiento con la finalidad de estudiar los siguientes problemas:
-Determinar la relativa dificultad de un corpus para ser agrupado y estudiar algunas de sus características como longitud de los textos, amplitud del dominio, estilometría, desequilibrio de clases y estructura.
-Contribuir en el estado del arte sobre el agrupamiento de corpora compuesto de textos cortos de dominios restringidos
El trabajo de investigación que se ha llevado a cabo se encuentra parcialmente enfocado en el "agrupamiento de textos cortos". Este tema se considera relevante dado el modo actual y futuro en que las personas tienden a usar un "lenguaje reducido" constituidos por textos cortos (por ejemplo, blogs, snippets, noticias y generación de mensajes de textos como el correo electrónico y el chat).
Adicionalmente, se estudia la amplitud del dominio de corpora. En este sentido, un corpus puede ser considerado como restringido o amplio si el grado de traslape de vocabulario es alto o bajo, respectivamente. En la tarea de categorización, es bastante complejo lidiar con corpora de dominio restringido tales como artículos científicos, reportes técnicos, patentes, etc.
El objetivo principal de este trabajo consiste en estudiar las posibles estrategias para tratar con los siguientes dos problemas:
a) las bajas frecuencias de los términos del vocabulario en textos cortos, y
b) el alto traslape de vocabulario asociado a dominios restringidos.
Si bien, cada uno de los problemas anteriores es un reto suficientemente alto, cuando se trata con textos cortos de dominios restringidos, la complejidad del problema se incr / Pinto Avendaño, DE. (2008). On Clustering and Evaluation of Narrow Domain Short-Test Corpora [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2641
|
63 |
Crash recovery with partial amnesia failure model issuesDe Juan Marín, Rubén 30 September 2008 (has links)
Replicated systems are a kind of distributed systems whose main goal
is to ensure that computer systems are highly available, fault tolerant and
provide high performance. One of the last trends in replication techniques
managed by replication protocols, make use of Group Communication Sys-
tem, and more specifically of the communication primitive atomic broadcast
for developing more eficient replication protocols.
An important aspect in these systems consists in how they manage
the disconnection of nodes {which degrades their service{ and the connec-
tion/reconnection of nodes for maintaining their original support. This task
is delegated in replicated systems to recovery protocols. How it works de-
pends specially on the failure model adopted. A model commonly used for
systems managing large state is the crash-recovery with partial amnesia be-
cause it implies short recovery periods. But, assuming it implies arising
several problems. Most of them have been already solved in the literature:
view management, abort of local transactions started in crashed nodes {
when referring to transactional environments{ or for example the reinclu-
sion of new nodes to the replicated system. Anyway, there is one problem
related to the assumption of this second failure model that has not been
completely considered: the amnesia phenomenon. Phenomenon that can
lead to inconsistencies if it is not correctly managed.
This work presents this inconsistency problem due to the amnesia and
formalizes it, de ning the properties that must be ful lled for avoiding it
and de ning possible solutions. Besides, it also presents and formalizes an
inconsistency problem {due to the amnesia{ which appears under a speci c
sequence of events allowed by the majority partition progress condition that
will imply to stop the system, proposing the properties for overcoming it and
proposing di erent solutions. As a consequence it proposes a new majority
partition progress condition. In the sequel there is de / De Juan Marín, R. (2008). Crash recovery with partial amnesia failure model issues [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3302
|
64 |
Conceptual schemas generation from organizacional model in an automatic software production processMartínez Rebollar, Alicia 30 September 2008 (has links)
Actualmente, la ingeniería de software ha propuesto múltiples técnicas para mejorar
el desarrollo de software, sin embargo, la meta final no ha sido satisfecha. En
muchos casos, el producto software no satisface las necesidades reales de los
clientes finales del negocio donde el sistema operará.
Uno de los problemas principales de los trabajos actuales es la carencia de un
enfoque sistemático para mapear cada concepto de modelado del dominio del
problema (modelos organizacionales), en sus correspondientes elementos
conceptuales en el espacio de la solución (modelos conceptuales orientados a
objetos).
El principal objetivo de esta tesis es proveer un enfoque metodológico que permita
generar modelos conceptuales y modelos de requisitos a partir de descripciones
organizacionales. Se propone el uso de tres disciplinas, distintas pero
complementarias (modelado organizacional, requisitos de software y modelado
conceptual) para lograr este objetivo.
La tesis describe un proceso de elicitación de requisitos que permite al usuario crear
un modelo de negocios que representa la situación actual del negocio (requisitos
tempranos). Nosotros consideramos que este modelo, el cual refleja la forma en la
que se implementan actualmente los procesos de negocio, es la fuente correcta para
determinar la funcionalidad esperada del sistema a desarrollar. Se propone también
un proceso para identificar los elementos que son relevantes para ser automatizados
a partir del modelo de negocio. Como resultado de este proceso se genera un
modelo intermedio que representa los requisitos del sistema de software.
Finalmente, presentamos un conjunto de guías sistemáticas para generar un
esquema conceptual orientado a objetos a partir del modelo intermedio. Nosotros
también exploramos, como solución alternativa, la generación de una especificación
de requisitos tardíos a partir del modelo intermedio. / Martínez Rebollar, A. (2008). Conceptual schemas generation from organizacional model in an automatic software production process [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3304
|
65 |
Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos)Cabello Espinosa, María Eugenia 15 December 2008 (has links)
Esta tesis presenta la aproximación denominada Baseline Oriented Modeling
(BOM). BOM es un framework que genera automáticamente Sistemas
Expertos (SE) basado en Líneas de Producto Software (LPS).
En BOM, se generan aplicaciones en un dominio específico, basadas en la
estructura y comportamiento de los SE, como modelos arquitectónicos
PRISMA, utilizando técnicas de LPS. Este proceso implica, por un lado
construir una Baseline (como repositorio que contiene todos los assets
necesarios para construir un producto de la LPS), y por otro lado realizar el
plan de producción de la LPS.
BOM gestiona la especificación de la variabilidad y la funcionalidad en modelos
separados, representados a través de modelos conceptuales. La variabilidad se
maneja en dos pasos: i) en el primer paso la variabilidad del dominio se refleja
en las arquitecturas base de la LPS, que comparten una arquitectura genérica,
y ii) en el segundo paso la variabilidad del dominio de aplicación específico se
instancia para obtener la arquitectura específica PRISMA como el producto
final de la LPS.
BOM sigue la iniciativa del Object Management Group (OMG) de Model-Driven
Architecture (MDA) para construir modelos de dominio (como Modelos
Independientes de Computación), que son transformados en modelos
arquitectónicos PRISMA (como Modelos Independientes de Plataforma) y
compilados a una aplicación ejecutable en .NET (como Modelos Específicos de
Plataforma). Lenguajes Específicos de Dominio han sido utilizados para que la
interfaz del usuario sea amigable, clara y sencilla. / Cabello Espinosa, ME. (2008). Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3793
|
66 |
On the design of fast and efficient wavelet image coders with reduced memory usageOliver Gil, José Salvador 06 May 2008 (has links)
Image compression is of great importance in multimedia systems and
applications because it drastically reduces bandwidth requirements for
transmission and memory requirements for storage. Although earlier
standards for image compression were based on the Discrete Cosine
Transform (DCT), a recently developed mathematical technique, called
Discrete Wavelet Transform (DWT), has been found to be more efficient
for image coding.
Despite improvements in compression efficiency, wavelet image coders
significantly increase memory usage and complexity when compared with
DCT-based coders. A major reason for the high memory requirements is
that the usual algorithm to compute the wavelet transform requires the
entire image to be in memory. Although some proposals reduce the memory
usage, they present problems that hinder their implementation. In
addition, some wavelet image coders, like SPIHT (which has become a
benchmark for wavelet coding), always need to hold the entire image in
memory.
Regarding the complexity of the coders, SPIHT can be considered quite
complex because it performs bit-plane coding with multiple image scans.
The wavelet-based JPEG 2000 standard is still more complex because it
improves coding efficiency through time-consuming methods, such as an
iterative optimization algorithm based on the Lagrange multiplier
method, and high-order context modeling.
In this thesis, we aim to reduce memory usage and complexity in
wavelet-based image coding, while preserving compression efficiency. To
this end, a run-length encoder and a tree-based wavelet encoder are
proposed. In addition, a new algorithm to efficiently compute the
wavelet transform is presented. This algorithm achieves low memory
consumption using line-by-line processing, and it employs recursion to
automatically place the order in which the wavelet transform is
computed, solving some synchronization problems that have not been
tackled by previous proposals. The proposed encode / Oliver Gil, JS. (2006). On the design of fast and efficient wavelet image coders with reduced memory usage [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1826
|
67 |
Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric SpacesTirado Peláez, Pedro 04 September 2008 (has links)
En los últimos años se ha desarrollado una teoría matemática con propiedades robustas con el fin de fundamentar la Ciencia de la Computación. En este sentido, un avance significativo lo constituye el establecimiento de modelos matemáticos que miden la "distancia" entre programas y entre algoritmos, analizados según su complejidad computacional.
En 1995, M. Schellekens inició el desarrollo de un modelo matemático para el análisis de la complejidad algorítmica basado en la construcción de una casi-métrica definida en el espacio de las funciones de complejidad, proporcionando una interpretación computacional adecuada del hecho de que un programa o algoritmo sea más eficiente que otro en todos su "inputs". Esta información puede extraerse en virtud del carácter asimétrico del modelo. Sin embargo, esta estructura no es aplicable al análisis de algoritmos cuya complejidad depende de dos parámetros. Por tanto, en esta tesis introduciremos un nuevo espacio casi-métrico de complejidad que proporcionará un modelo útil para el análisis de este tipo de algoritmos. Por otra parte, el espacio casi-métrico de complejidad no da una interpretación computacional del hecho de que un programa o algoritmo sea "sólo" asintóticamente más eficiente que otro. Los espacios casi-métricos difusos aportan un parámetro "t", cuya adecuada utilización puede originar una información extra sobre el proceso computacional a estudiar; por ello introduciremos la noción de casi-métrica difusa de complejidad, que proporciona un modelo satisfactorio para interpretar la eficiencia asintótica de las funciones de complejidad.
En este contexto extenderemos los principales teoremas de punto fijo en espacios métricos difusos , utilizando una determinada noción de completitud, y obtendremos otros nuevos. Algunos de estos teoremas también se establecerán en el contexto general de los espacios casi-métricos difusos intuicionistas, de lo que resultarán condiciones de contracción menos fuertes.
Los resultados obt / Tirado Peláez, P. (2008). Contractive Maps and Complexity Analysis in Fuzzy Quasi-Metric Spaces [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2961
|
Page generated in 0.0208 seconds