171 |
Prisma: aspect-oriented software architecturesPérez Benedí, Jenifer 07 May 2008 (has links)
Hoy en día, la complejidad de los sistemas software y la gran relevancia que han adquirido los
requisitos no funcionales son retos que han de abordarse durante el proceso de desarrollo
software. En los últimos años, estas propiedades han provocado un gran incremento en el
tiempo y el personal necesario para llevar a cabo los procesos de desarrollo y mantenimiento
del software. Por ello, existe un gran interés en mejorar dichos procesos. Esta tesis presenta un
nuevo enfoque de desarrollo para sistemas software complejos. Dicho enfoque, llamado
PRISMA, da soporte a estos nuevos retos y permite satisfacer la elevada competitividad del
mercado.
El enfoque PRISMA se ha materializado en un marco de trabajo formado por un modelo,
un lenguaje, una metodología y un prototipo de herramienta CASE (Computer-Aided Software
Engineering). El modelo de PRISMA combina dos aproximaciones para definir arquitecturas
software: el Desarrollo de Software Basado en Componentes (DSBC) y el Desarrollo de
Software Orientado a Aspectos (DSOA). Las principales aportaciones del modelo es la manera
en la que integra ambas aproximaciones para obtener sus ventajas y su lenguaje formal.
PRISMA tiene en cuenta los requisitos no funcionales desde las primeras etapas del ciclo de
vida software y mejora su reutilización y el mantenimiento. Todo ello gracias a la
descomposición que realiza de los sistemas software utilizando dos conceptos diferentes:
aspectos y elementos arquitectónicos (componentes y conectores).
PRISMA proporciona un Lenguaje de Descripción de Arquitecturas Orientado a Aspectos
(LDAOA) formal para la especificación de arquitecturas software orientadas a aspectos. El
LDAOA de PRISMA es independiente de cualquier tecnología y está basado en lenguajes
formales para evitar la ambigüedad y poder aplicar técnicas de generación automática de
código.
La metodología de PRISMA apuesta por el desarrollo de software siguiendo el Paradigma
de la Prototipación Automática mediante la aplicación del e / Pérez Benedí, J. (2006). Prisma: aspect-oriented software architectures [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1928
|
172 |
Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogoGriol Barres, David 07 May 2008 (has links)
El objetivo principal de la tesis que se presenta es el estudio y
desarrollo de diferentes metodologías para la gestión del diálogo
en sistemas de diálogo hablado. El principal reto planteado en la
tesis reside en el desarrollo de metodologías puramente
estadísticas para la gestión del diálogo, basadas en el
aprendizaje de un modelo a partir de un corpus de diálogos
etiquetados. En este campo, se presentan diferentes aproximaciones
para realizar la gestión, la mejora del modelo estadístico y la
evaluación del sistema del diálogo.
Para la implementación práctica de estas metodologías, en el
ámbito de una tarea específica, ha sido necesaria la adquisición y
etiquetado de un corpus de diálogos. El hecho de disponer de un
gran corpus de diálogos ha facilitado el aprendizaje y evaluación
del modelo de gestión desarrollado. Así mismo, se ha implementado
un sistema de diálogo completo, que permite evaluar el
funcionamiento práctico de las metodologías de gestión en
condiciones reales de uso.
Para evaluar las técnicas de gestión del diálogo se proponen
diferentes aproximaciones: la evaluación mediante usuarios reales;
la evaluación con el corpus adquirido, en el cual se han definido
unas particiones de entrenamiento y prueba; y la utilización de
técnicas de simulación de
usuarios. El simulador de usuario desarrollado
permite modelizar de forma estadística el proceso completo del
diálogo. En la aproximación que se presenta, tanto la obtención de
la respuesta del sistema como la generación del turno de usuario
se modelizan como un problema de clasificación, para el que se
codifica como entrada un conjunto de variables que representan el
estado actual del diálogo y como resultado de la clasificación se
obtienen las probabilidades de seleccionar cada una de las
respuestas (secuencia de actos de diálogo) definidas
respectivamente para el usuario y el sistema. / Griol Barres, D. (2007). Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogo [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1956
|
173 |
A formal framework for model managementBoronat Moll, Arturo 07 May 2008 (has links)
El Desarrollo de Software Dirigido por Modelos es una rama de la Ingeniería del Software en la
que los artefactos software se representan como modelos para incrementar la productividad, calidady eficiencia económica en el proceso de desarrollo de software, donde un modelo proporciona una representación abstracta del código final de una aplicación. En este campo, la iniciativa Model-Driven Architecture (MDA), patrocinada por la OMG, está constituida por una familia de estándares industriales, entre los que se destacan: Meta-Object Facility (MOF), Unified Modeling Language (UML), Object Constraint Language (OCL), XML Metadata Interchange (XMI),
y Query/Views/Transformations (QVT). Estos estándares proporcionan unas directrices comunes
para herramientas basadas en modelos y para procesos de desarrollo de software dirigidos por modelos.
Su objetivo consiste en mejorar la interoperabilidad entre marcos de trabajo ejecutables, en
automatizar el proceso desarrollo de software de software y en proporcionar técnicas que eviten
errores durante ese proceso.
El estándar MOF describe un marco de trabajo genérico que permite definir la sintaxis abstracta
de lenguajes de modelado. Este estándar persigue la definición de los conceptos básicos que son
utilizados en procesos de desarrollo de software dirigidos por modelos: que es un modelo, que es un metamodelo, qué es reflexión en un marco de trabajo basado en MOF, etc. Sin embargo, la mayoría de estos conceptos carecen de una semántica formal en la versión actual del estándar MOF. Además, OCL se utiliza como un lenguage de definición de restricciones que permite añadir semántica a un metamodelo MOF. Desafortunadamente, la relación entre un metamodelo y sus restricciones OCL también carece de una semántica formal. Este hecho es debido, en parte, a que los metamodelos solo pueden ser definidos como dato en un marco de trabajo basado en MOF.
El estándar MOF también proporciona las llamadas facilidades de reflexión de MOF (MOF Reflecti / Boronat Moll, A. (2007). A formal framework for model management [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1964
|
174 |
Un procedimiento de medición de tamaño funcional para especificaciones de requisitosCondori Fernández, Olinda Nelly 07 May 2008 (has links)
Hoy en día el tamaño del software es utilizado en la gestión y control de producción como uno de los parámetros esenciales de los modelos de estimación que contribuyen a la calidad de los proyectos de software y productos entregables. Aunque la importancia de la medición temprana del tamaño es evidente, actualmente esta medición es solamente alcanzada en fases tardías del ciclo de vida del software (análisis, diseño e implementación).
El tamaño de software puede ser cuantificado usando diferentes técnicas, como las líneas de código y los métodos de medición de tamaño funcional. Un método de medición de tamaño funcional mide el tamaño del software cuantificando los requisitos funcionales. El método Análisis de Puntos de Función (FPA) es el método mayormente utilizado. Este
método fue desarrollado para medir Sistemas de Información de Gestión desarrollados con metodos tradicionales. Aunque IFPUG FPA ha ido alcanzado mayor popularidad en la industria, este método carece de aplicabilidad a todo tipo de software y a nuevos paradigmas de desarrollo.
Para direccionar estas debilidades, COSMIC-FFP ha surgido como un método de segunda generación y ha sido probado como un estandar internacional (ISO/IEC 19761). Sin embargo, la generalidad de COSMIC-FFP requiere ser instanciado por medio de un procedimiento más específico y sistemático en conjunción con un método de desarrollo de software. / Condori Fernández, ON. (2007). Un procedimiento de medición de tamaño funcional para especificaciones de requisitos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1998
|
175 |
On Clustering and Evaluation of Narrow Domain Short-Test CorporaPinto Avendaño, David Eduardo 23 July 2008 (has links)
En este trabajo de tesis doctoral se investiga el problema del agrupamiento de conjuntos especiales de documentos llamados textos cortos de dominios restringidos.
Para llevar a cabo esta tarea, se han analizados diversos corpora y métodos de agrupamiento. Mas aún, se han introducido algunas medidas de evaluación de corpus, técnicas de selección de términos y medidas para la validez de agrupamiento con la finalidad de estudiar los siguientes problemas:
-Determinar la relativa dificultad de un corpus para ser agrupado y estudiar algunas de sus características como longitud de los textos, amplitud del dominio, estilometría, desequilibrio de clases y estructura.
-Contribuir en el estado del arte sobre el agrupamiento de corpora compuesto de textos cortos de dominios restringidos
El trabajo de investigación que se ha llevado a cabo se encuentra parcialmente enfocado en el "agrupamiento de textos cortos". Este tema se considera relevante dado el modo actual y futuro en que las personas tienden a usar un "lenguaje reducido" constituidos por textos cortos (por ejemplo, blogs, snippets, noticias y generación de mensajes de textos como el correo electrónico y el chat).
Adicionalmente, se estudia la amplitud del dominio de corpora. En este sentido, un corpus puede ser considerado como restringido o amplio si el grado de traslape de vocabulario es alto o bajo, respectivamente. En la tarea de categorización, es bastante complejo lidiar con corpora de dominio restringido tales como artículos científicos, reportes técnicos, patentes, etc.
El objetivo principal de este trabajo consiste en estudiar las posibles estrategias para tratar con los siguientes dos problemas:
a) las bajas frecuencias de los términos del vocabulario en textos cortos, y
b) el alto traslape de vocabulario asociado a dominios restringidos.
Si bien, cada uno de los problemas anteriores es un reto suficientemente alto, cuando se trata con textos cortos de dominios restringidos, la complejidad del problema se incr / Pinto Avendaño, DE. (2008). On Clustering and Evaluation of Narrow Domain Short-Test Corpora [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2641
|
176 |
Crash recovery with partial amnesia failure model issuesDe Juan Marín, Rubén 30 September 2008 (has links)
Replicated systems are a kind of distributed systems whose main goal
is to ensure that computer systems are highly available, fault tolerant and
provide high performance. One of the last trends in replication techniques
managed by replication protocols, make use of Group Communication Sys-
tem, and more specifically of the communication primitive atomic broadcast
for developing more eficient replication protocols.
An important aspect in these systems consists in how they manage
the disconnection of nodes {which degrades their service{ and the connec-
tion/reconnection of nodes for maintaining their original support. This task
is delegated in replicated systems to recovery protocols. How it works de-
pends specially on the failure model adopted. A model commonly used for
systems managing large state is the crash-recovery with partial amnesia be-
cause it implies short recovery periods. But, assuming it implies arising
several problems. Most of them have been already solved in the literature:
view management, abort of local transactions started in crashed nodes {
when referring to transactional environments{ or for example the reinclu-
sion of new nodes to the replicated system. Anyway, there is one problem
related to the assumption of this second failure model that has not been
completely considered: the amnesia phenomenon. Phenomenon that can
lead to inconsistencies if it is not correctly managed.
This work presents this inconsistency problem due to the amnesia and
formalizes it, de ning the properties that must be ful lled for avoiding it
and de ning possible solutions. Besides, it also presents and formalizes an
inconsistency problem {due to the amnesia{ which appears under a speci c
sequence of events allowed by the majority partition progress condition that
will imply to stop the system, proposing the properties for overcoming it and
proposing di erent solutions. As a consequence it proposes a new majority
partition progress condition. In the sequel there is de / De Juan Marín, R. (2008). Crash recovery with partial amnesia failure model issues [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3302
|
177 |
Conceptual schemas generation from organizacional model in an automatic software production processMartínez Rebollar, Alicia 30 September 2008 (has links)
Actualmente, la ingeniería de software ha propuesto múltiples técnicas para mejorar
el desarrollo de software, sin embargo, la meta final no ha sido satisfecha. En
muchos casos, el producto software no satisface las necesidades reales de los
clientes finales del negocio donde el sistema operará.
Uno de los problemas principales de los trabajos actuales es la carencia de un
enfoque sistemático para mapear cada concepto de modelado del dominio del
problema (modelos organizacionales), en sus correspondientes elementos
conceptuales en el espacio de la solución (modelos conceptuales orientados a
objetos).
El principal objetivo de esta tesis es proveer un enfoque metodológico que permita
generar modelos conceptuales y modelos de requisitos a partir de descripciones
organizacionales. Se propone el uso de tres disciplinas, distintas pero
complementarias (modelado organizacional, requisitos de software y modelado
conceptual) para lograr este objetivo.
La tesis describe un proceso de elicitación de requisitos que permite al usuario crear
un modelo de negocios que representa la situación actual del negocio (requisitos
tempranos). Nosotros consideramos que este modelo, el cual refleja la forma en la
que se implementan actualmente los procesos de negocio, es la fuente correcta para
determinar la funcionalidad esperada del sistema a desarrollar. Se propone también
un proceso para identificar los elementos que son relevantes para ser automatizados
a partir del modelo de negocio. Como resultado de este proceso se genera un
modelo intermedio que representa los requisitos del sistema de software.
Finalmente, presentamos un conjunto de guías sistemáticas para generar un
esquema conceptual orientado a objetos a partir del modelo intermedio. Nosotros
también exploramos, como solución alternativa, la generación de una especificación
de requisitos tardíos a partir del modelo intermedio. / Martínez Rebollar, A. (2008). Conceptual schemas generation from organizacional model in an automatic software production process [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3304
|
178 |
Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos)Cabello Espinosa, María Eugenia 15 December 2008 (has links)
Esta tesis presenta la aproximación denominada Baseline Oriented Modeling
(BOM). BOM es un framework que genera automáticamente Sistemas
Expertos (SE) basado en Líneas de Producto Software (LPS).
En BOM, se generan aplicaciones en un dominio específico, basadas en la
estructura y comportamiento de los SE, como modelos arquitectónicos
PRISMA, utilizando técnicas de LPS. Este proceso implica, por un lado
construir una Baseline (como repositorio que contiene todos los assets
necesarios para construir un producto de la LPS), y por otro lado realizar el
plan de producción de la LPS.
BOM gestiona la especificación de la variabilidad y la funcionalidad en modelos
separados, representados a través de modelos conceptuales. La variabilidad se
maneja en dos pasos: i) en el primer paso la variabilidad del dominio se refleja
en las arquitecturas base de la LPS, que comparten una arquitectura genérica,
y ii) en el segundo paso la variabilidad del dominio de aplicación específico se
instancia para obtener la arquitectura específica PRISMA como el producto
final de la LPS.
BOM sigue la iniciativa del Object Management Group (OMG) de Model-Driven
Architecture (MDA) para construir modelos de dominio (como Modelos
Independientes de Computación), que son transformados en modelos
arquitectónicos PRISMA (como Modelos Independientes de Plataforma) y
compilados a una aplicación ejecutable en .NET (como Modelos Específicos de
Plataforma). Lenguajes Específicos de Dominio han sido utilizados para que la
interfaz del usuario sea amigable, clara y sencilla. / Cabello Espinosa, ME. (2008). Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3793
|
179 |
Statistical approaches for natural language modelling and monotone statistical machine translationAndrés Ferrer, Jesús 11 February 2010 (has links)
Esta tesis reune algunas contribuciones al reconocimiento de formas estadístico y, más especícamente, a varias tareas del procesamiento del lenguaje natural. Varias técnicas estadísticas bien conocidas se revisan en esta tesis, a saber: estimación paramétrica, diseño de la función de pérdida y modelado estadístico. Estas técnicas se aplican a varias tareas del procesamiento del lenguajes natural tales como clasicación de documentos, modelado del lenguaje natural
y traducción automática estadística.
En relación con la estimación paramétrica, abordamos el problema del suavizado proponiendo una nueva técnica de estimación por máxima verosimilitud con dominio restringido (CDMLEa ). La técnica CDMLE evita la necesidad de la etapa de suavizado que propicia la pérdida de las propiedades del estimador máximo verosímil. Esta técnica se aplica a clasicación de documentos mediante el clasificador Naive Bayes. Más tarde, la técnica CDMLE se extiende a la estimación por máxima verosimilitud por leaving-one-out aplicandola al suavizado de modelos de lenguaje. Los resultados obtenidos en varias tareas de modelado del lenguaje natural, muestran una mejora en términos de perplejidad.
En a la función de pérdida, se estudia cuidadosamente el diseño de funciones de pérdida diferentes a la 0-1. El estudio se centra en aquellas funciones de pérdida que reteniendo una complejidad de decodificación similar a la función 0-1, proporcionan una mayor flexibilidad. Analizamos y presentamos varias funciones de pérdida en varias tareas de traducción automática y con varios modelos de traducción. También, analizamos algunas reglas de traducción que destacan por causas prácticas tales como la regla de traducción directa; y, así mismo, profundizamos en la comprensión de los modelos log-lineares, que son de hecho, casos particulares de funciones de pérdida.
Finalmente, se proponen varios modelos de traducción monótonos basados en técnicas de modelado estadístico . / Andrés Ferrer, J. (2010). Statistical approaches for natural language modelling and monotone statistical machine translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7109
|
180 |
METHODOLOGICAL INTEGRATION OF COMMUNICATION ANALYSIS INTO A MODEL-DRIVEN SOFTWARE DEVELOPMENT FRAMEWORKEspaña Cubillo, Sergio 27 January 2012 (has links)
It is widely recognised that information and communication technologies development is a risky activity. Despite the advances in software engineering, many software development projects fail to satisfy the clients' needs, to deliver on time or to stay within budget. Among the various factors that are considered to cause failure, an inadequate requirements practice stands out. Model-driven development is a relatively recent paradigm with the potential to solve some of the dragging problems of software development. Models play a paramount role in model-driven development: several modelling layers allow defining views of the system under construction at different abstraction levels, and model transformations facilitate the transition from one layer to the other. However, how to effectively integrate requirements engineering within model-driven development is still an open research challenge. This thesis integrates Communication Analysis, a communication-oriented business process modelling and requirements engineering method for information systems development, and the OO Method, an object-oriented model-driven software development method provides automatic software generation from conceptual models. We first provide a detailed specification of Communication Analysis intended to facilitate the integration; among other improvements to the method, we build an ontology-based set of concept definitions in which to ground the method, we provide precise methodological guidelines, we create a metamodel for the modelling languages included in the method, and we provide tools to support the creation of Communication Analysis requirements models. Then we perform the integration by providing a technique to systematically derive OO-Method conceptual models from Communication Analysis requirements models. The derivation technique is offered in two flavours: a set of rules to be manually applied by a human analyst, and an ATL model transformation that automates this task. / España Cubillo, S. (2011). METHODOLOGICAL INTEGRATION OF COMMUNICATION ANALYSIS INTO A MODEL-DRIVEN SOFTWARE DEVELOPMENT FRAMEWORK [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14572
|
Page generated in 0.0225 seconds