• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 4
  • Tagged with
  • 24
  • 24
  • 16
  • 13
  • 13
  • 13
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Recuperación de pasajes multilingües para la búsqueda de respuestas

Gómez Soriano, José Manuel 07 May 2008 (has links)
JAVA Information Retrieval System (JIRS) es un sistema de Recuperación de Información especialmente orientado a tareas de Búsqueda de Respuestas. Los tradicionales motores de búsqueda se basan en las palabras claves de la pregunta para obtener los documentos relevantes a una consulta. JIRS, por el contrario, intenta obtener trozos de texto, es decir pasajes, con mayor probabilidad de contener la respuesta. Para ello realiza una búsqueda basada en los n-gramas de la pregunta -efectuada en lenguaje natural- usando tres posibles modelos. Los modelos de n-gramas desarrollados son independientes del idioma, lo que hace de JIRS un sistema idóneo para trabajar en ambientes multilingües. Por otra parte, JIRS incorpora un potente núcleo que permite una adaptación y escalabilidad sin precedentes en los modernos motores de búsqueda. Desde sus inicios fue diseñado para que fuera una herramienta potente que permitiese adaptarse sin dificultad a muy diferentes funciones. Esto permite ampliar o modificar aspectos de JIRS de forma muy fácil e intuitiva sin que el usuario final tenga que conocer el código desarrollado por otros. Además, permite generar nuevas aplicaciones con una estructura cliente/servidor, distribuida, etc. únicamente modificando el archivo de configuración. Este trabajo presenta el estado del arte de la Recuperación de Información centrándose en la Búsqueda de Respuestas multilingüe, así como una descripción detallada de JIRS junto con sus modelos de búsqueda exponiendo, finalmente, los resultados obtenidos por este sistema en las competiciones del CLEF. / Gómez Soriano, JM. (2007). Recuperación de pasajes multilingües para la búsqueda de respuestas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1930 / Palancia
12

Un sistema para el mantenimiento de almacenes de datos

García Gerardo, Clemente 04 July 2008 (has links)
Un almacén de datos es una base de datos diseñada para dar soporte al proceso de toma de decisiones en una organización. Un sistema de almacén de datos integra en un único repositorio, información histórica procedente de distintas fuentes de datos operacionales de la organización o externas a ella. Para que el almacén de datos sea en todo momento un reflejo fiel de la organización a la que sirve, debe ser actualizado periódicamente. Este proceso puede consumir muchos recursos, y en algunos casos inhabilitar el almacén de datos para los usuarios. En organizaciones donde el sistema debe estar disponible para los analistas en todo momento, el mantenimiento del almacén se convierte en un punto crítico del sistema. Por este motivo la investigación en estrategias eficientes de mantenimiento de almacenes de datos ha recibido la atención de los investigadores desde la aparición de esta tecnología. El mantenimiento de un almacén de datos se realiza en tres fases: extracción de datos de las fuentes, transformación de los datos y actualización del almacén. En este trabajo de tesis se han abordado, las fases de transformación y principalmente la fase de actualización. Para la fase de transformación se ha desarrollado un sistema que permite realizar tareas de limpieza moderada de los datos, integración de formato e integración semántica. Pero, el trabajo principal se ha centrado en la fase de actualización, para ella se han definido e implementado dos algoritmos que permiten realizar la actualización del almacén de datos de forma incremental y en línea, es decir evitando inhabilitar el almacén de datos durante el mantenimiento. Los algoritmos se basan en una estrategia multiversión, que permite mantener un número ilimitado de versiones de los datos actualizados, permitiendo de esta manera que los usuarios accedan a una misma versión del almacén mientras éste se está actualizando. / García Gerardo, C. (2008). Un sistema para el mantenimiento de almacenes de datos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2505 / Palancia
13

Un método de desarrollo de hipermedia dirigido por modelos

Solís Pineda, Carlos 22 December 2008 (has links)
Esta tesis presenta al Model Driven Hypermedia Development Method (MDHDM). MDHDM es un método de desarrollo de hipermedia basado en el modelado de procesos y la ingeniería dirigida por modelos. La conjunción de hipertexto y multimedia, por un lado, y la popularización de la Web, por otro, generaron desafíos que los métodos tradicionales no eran capaces de resolver. Entre ellos destaca el diseño y control de la navegación por espacios complejos de información, que ha llevado a los métodos de diseño de hipermedia y de la Ingeniería Web a presentar el modelo navegacional como la gran diferencia frente a los métodos tradicionales. Sin embargo, en la mayoría de los casos el modelo navegacional se deriva de los modelos estructurales. En MDHDM el eje central del modelado conceptual lo constituye el modelado del proceso de negocio, debido a que permiten representar la naturaleza dinámica de la realidad. El modelo navegacional de MDHDM está compuesto por las estructuras navegacionales derivadas del modelos de proceso y que son llamadas vistas navegacionales y enlaces fuertes. Este modelo se complementa con las estructuras navegacionales derivadas del modelo estructural compuesto por clases navegacionales, estructuras de acceso y enlaces débiles. En MDHDM se definen los metamodelos, transformaciones y marcas para poder generar automáticamente el modelo navegacional a partir de los modelos de proceso y estructural. Además, se comprueba la correcta construcción de los modelos a través de restricciones OCL. Los pasos siguientes al diseño navegacional: el diseño de la interfaz abstracta de usuario y la implementación también se abordan. Del primero se proporciona un metamodelo y para la implementación se han tratado algunos modelos específicos de la plataforma. Además, en la tesis se presentan dos casos de estudio. / Solís Pineda, C. (2008). Un método de desarrollo de hipermedia dirigido por modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3884 / Palancia
14

Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas

Fernández Llatas, Carlos 06 May 2009 (has links)
Describir los mejores procesos para ejecutar correctamente una estrategia de una forma eficiente y con calidad no es siempre una tarea fácil. La estandarizaci ón de procesos en general y de Vías Clínicas en particular requiere de potentes herramientas de especificación e implementación que apoyen a los expertos en diseño. La utilización de modelos de Flujos de Trabajo (del inglés Work ows) facilita a los expertos en diseño la creación las reglas de ejecución de sus sistemas como si fueran programadores. Aún así debido a la gran mutabilidad de los procesos reales, es muy difícil conocer como los procesos se están ejecutando en la realidad. La utilización de técnicas de reconocimiento de formas pueden ayudar a los expertos en procesos a inferir, a partir de muestras de ejecución pasadas, modelos que expliquen la forma en la que estos procesos están efectivamente ejecutándose. Este paradigma es conocido como Aprendizaje de Flujos de Trabajo (del inglés Work ow Mining). Los cambios de estado en los procesos de cuidado existentes en las Vías Clínicas se basan en los resultados de las acciones. Los modelos actuales de Aprendizaje de Flujos de Trabajo no recogen esta información en sus corpus. Por eso, los actuales sistemas de aprendizaje no cubren las necesidades de problemas complejos como es el caso de las Vías Clínicas. En esta Tesis se van a estudiar los modelos de representación, interpretación y aprendizaje de Flujos de Trabajo con la intención de proponer un modelo adecuado para resolver los problemas que impiden a los diseñadores de procesos complejos, como Vías Clínicas, utilizar técnicas de Aprendizaje de Flujos de Trabajo. Para ello se va a definir un nuevo paradigma adecuado para el apoyo al diseño de Vías Clínicas, además de proporcionar herramientas para su uso. Por esto en esta Tesis se presenta además un modelo de representación de Flujos de Trabajo con una alta expresividad y legibilidad, una herramienta software capaz de ejecutar y simular Flujos de Trab / Fernández Llatas, C. (2009). Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4562 / Palancia
15

Problemas de completación de matrices parciales

Khalil Hassan el Ghamry, Ramadan 08 November 2010 (has links)
La presente memoria aborda algunos problemas de completación de matrices parciales, concretamente analizamos las matrices parciales totalmente no negativas, las matrices parciales totalmente no positivas y las R y TR-matrices parciales. El objetivo es dar a conocer la situación actual de los citados problemas y proporcionar condiciones necesarias y suficientes que nos permitan cerrar diversos casos abiertos. Analizamos dichos problemas obteniendo nuevos resultados en el caso de matrices parciales totalmente no negativas y totalmente no positivas. Además conseguimos cerrar los problemas de completación de las R y TR-matrices parciales. / Khalil Hassan El Ghamry, R. (2009). Problemas de completación de matrices parciales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8858 / Palancia
16

Aportaciones al diagnóstico de cáncer asistido por ordenador

Llobet Azpitarte, Rafael 06 May 2008 (has links)
Para diagnosticar un cáncer se realiza, entre otras pruebas, algún test de imagen, como puede ser una radiografía, ecografía o resonancia magnética. Mediante estos tests pueden detectarse zonas con alta sospecha tumoral, cuyo diagnóstico debe confirmase finalmente mediante la realización de una biopsia. Este tipo de imágenes, sin embargo, no son fáciles de interpretar, lo que provoca que el profesional encargado de analizarlas, a pesar de su experiencia, no sea capaz de detectar en ellas un porcentaje importante de tumores (falsos negativos). Una posibilidad para mejorar el diagnóstico y disminuir el número de falsos negativos consiste en utilizar sistemas de diagnóstico asistido por ordenador o computer-aided diagnosis (CAD). Un sistema de CAD analiza la imagen médica y trata de detectar zonas sospechosas de contener alguna anomalía. Estas zonas son marcadas sobre la propia imagen con un doble objetivo: llamar la atención del profesional encargado de analizarla hacia la zona sospechosa y aportar una segunda opinión respecto al diagnóstico. En esta tesis se presentan y evaluan diversas técnicas de visión por computador y reconocimiento de formas orientadas a la detección de tumores en imágenes médicas, con el objetivo de diseñar sistemas de CAD que permitan un mejor diagnóstico. El trabajo se ha centrado en el diagnóstico de cáncer de próstata a partir de imágenes de ecografía, y en el diagnóstico de cáncer de mama a partir de imágenes de radiografía. Se han evaluado diversos métodos de extracción de características basados en la intensidad, frecuencia, texturas o en gradientes. En la etapa de clasificación se ha utilizado un clasificador no paramétrico basado en distancias (k-vecinos más cercanos) y otro paramétrico basado en modelos de Markov. A lo largo del trabajo se evidencian las distintas problemáticas que surgen en este tipode tareas y se proponen soluciones a cada una de ellas. El diagnóstico de cáncer de próstata asistido por ordenador es una tarea extrema / Llobet Azpitarte, R. (2006). Aportaciones al diagnóstico de cáncer asistido por ordenador [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1862 / Palancia
17

Una aproximación offline a la evaluación parcial dirigida por narrowing

Ramos Díaz, J. Guadalupe 06 May 2008 (has links)
La evaluación parcial dirigida por narrowing (NPE: Narrowing-driven Partial Evaluation) es una técnica potente para la especialización de sistemas de reescritura, i.e., para el componente de primer orden de muchos lenguajes declarativos (lógico) funcionales como Haskell, Curry o Toy. Los evaluadores parciales se clasifican en dos grandes categorías: online y offline, de acuerdo al momento temporal en que se consideran los aspectos de terminación del proceso de especialización. Los evaluadores parciales online son usualmente más precisos ya que tienen más información disponible. Los evaluadores parciales offline proceden comúnmente en dos etapas; la primera etapa procesa un programa (e.g., para identificar aquellas llamadas a función que se pueden desplegar sin riesgo de no terminación) e incluye anotaciones para guiar las computaciones parciales; entonces, una segunda etapa, la de evaluación parcial propiamente dicha, sólo tiene que obedecer las anotaciones y por tanto el especializador es mucho más rápido que en la aproximación online. En esta tesis se presenta un nuevo esquema de evaluación parcial dirigido por narrowing, más eficiente y que asegura la terminación siguiendo el estilo offline. Para ello, identificamos una caracterización de programas cuasi-terminantes a los que llamamos "no crecientes". En tales programas, las computaciones por narrowing necesario presentan sólo un conjunto finito de términos diferentes (módulo renombramiento de variables). La propiedad de la cuasi-terminación es importante toda vez que su presencia es regularmente una condición suficiente para la terminación del proceso de especialización. Sin embargo, la clase de programas cuasi-terminantes es muy restrictiva, por lo que introducimos un algoritmo que acepta programas inductivamente secuenciales---una clase mucho más amplia sobre la que está definido el narrowing necesario---y anota aquellas partes que violan la caracterización de programas no crecientes. Para procesar de mane / Ramos Díaz, JG. (2007). Una aproximación offline a la evaluación parcial dirigida por narrowing [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1888 / Palancia
18

Un procedimiento de medición de tamaño funcional para especificaciones de requisitos

Condori Fernández, Olinda Nelly 07 May 2008 (has links)
Hoy en día el tamaño del software es utilizado en la gestión y control de producción como uno de los parámetros esenciales de los modelos de estimación que contribuyen a la calidad de los proyectos de software y productos entregables. Aunque la importancia de la medición temprana del tamaño es evidente, actualmente esta medición es solamente alcanzada en fases tardías del ciclo de vida del software (análisis, diseño e implementación). El tamaño de software puede ser cuantificado usando diferentes técnicas, como las líneas de código y los métodos de medición de tamaño funcional. Un método de medición de tamaño funcional mide el tamaño del software cuantificando los requisitos funcionales. El método Análisis de Puntos de Función (FPA) es el método mayormente utilizado. Este método fue desarrollado para medir Sistemas de Información de Gestión desarrollados con metodos tradicionales. Aunque IFPUG FPA ha ido alcanzado mayor popularidad en la industria, este método carece de aplicabilidad a todo tipo de software y a nuevos paradigmas de desarrollo. Para direccionar estas debilidades, COSMIC-FFP ha surgido como un método de segunda generación y ha sido probado como un estandar internacional (ISO/IEC 19761). Sin embargo, la generalidad de COSMIC-FFP requiere ser instanciado por medio de un procedimiento más específico y sistemático en conjunción con un método de desarrollo de software. / Condori Fernández, ON. (2007). Un procedimiento de medición de tamaño funcional para especificaciones de requisitos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1998 / Palancia
19

Crash recovery with partial amnesia failure model issues

De Juan Marín, Rubén 30 September 2008 (has links)
Replicated systems are a kind of distributed systems whose main goal is to ensure that computer systems are highly available, fault tolerant and provide high performance. One of the last trends in replication techniques managed by replication protocols, make use of Group Communication Sys- tem, and more specifically of the communication primitive atomic broadcast for developing more eficient replication protocols. An important aspect in these systems consists in how they manage the disconnection of nodes {which degrades their service{ and the connec- tion/reconnection of nodes for maintaining their original support. This task is delegated in replicated systems to recovery protocols. How it works de- pends specially on the failure model adopted. A model commonly used for systems managing large state is the crash-recovery with partial amnesia be- cause it implies short recovery periods. But, assuming it implies arising several problems. Most of them have been already solved in the literature: view management, abort of local transactions started in crashed nodes { when referring to transactional environments{ or for example the reinclu- sion of new nodes to the replicated system. Anyway, there is one problem related to the assumption of this second failure model that has not been completely considered: the amnesia phenomenon. Phenomenon that can lead to inconsistencies if it is not correctly managed. This work presents this inconsistency problem due to the amnesia and formalizes it, de ning the properties that must be ful lled for avoiding it and de ning possible solutions. Besides, it also presents and formalizes an inconsistency problem {due to the amnesia{ which appears under a speci c sequence of events allowed by the majority partition progress condition that will imply to stop the system, proposing the properties for overcoming it and proposing di erent solutions. As a consequence it proposes a new majority partition progress condition. In the sequel there is de / De Juan Marín, R. (2008). Crash recovery with partial amnesia failure model issues [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3302 / Palancia
20

Conceptual schemas generation from organizacional model in an automatic software production process

Martínez Rebollar, Alicia 30 September 2008 (has links)
Actualmente, la ingeniería de software ha propuesto múltiples técnicas para mejorar el desarrollo de software, sin embargo, la meta final no ha sido satisfecha. En muchos casos, el producto software no satisface las necesidades reales de los clientes finales del negocio donde el sistema operará. Uno de los problemas principales de los trabajos actuales es la carencia de un enfoque sistemático para mapear cada concepto de modelado del dominio del problema (modelos organizacionales), en sus correspondientes elementos conceptuales en el espacio de la solución (modelos conceptuales orientados a objetos). El principal objetivo de esta tesis es proveer un enfoque metodológico que permita generar modelos conceptuales y modelos de requisitos a partir de descripciones organizacionales. Se propone el uso de tres disciplinas, distintas pero complementarias (modelado organizacional, requisitos de software y modelado conceptual) para lograr este objetivo. La tesis describe un proceso de elicitación de requisitos que permite al usuario crear un modelo de negocios que representa la situación actual del negocio (requisitos tempranos). Nosotros consideramos que este modelo, el cual refleja la forma en la que se implementan actualmente los procesos de negocio, es la fuente correcta para determinar la funcionalidad esperada del sistema a desarrollar. Se propone también un proceso para identificar los elementos que son relevantes para ser automatizados a partir del modelo de negocio. Como resultado de este proceso se genera un modelo intermedio que representa los requisitos del sistema de software. Finalmente, presentamos un conjunto de guías sistemáticas para generar un esquema conceptual orientado a objetos a partir del modelo intermedio. Nosotros también exploramos, como solución alternativa, la generación de una especificación de requisitos tardíos a partir del modelo intermedio. / Martínez Rebollar, A. (2008). Conceptual schemas generation from organizacional model in an automatic software production process [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3304 / Palancia

Page generated in 0.045 seconds