• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 196
  • 4
  • 2
  • Tagged with
  • 417
  • 357
  • 356
  • 230
  • 117
  • 53
  • 50
  • 45
  • 43
  • 42
  • 41
  • 40
  • 36
  • 36
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Agile Managing of Web requirements with WebSpec

Robles Luna, Esteban 27 June 2011 (has links)
No description available.
32

Selección y ponderación de características para la clasificación de textos y su aplicación en el diagnóstico médico

Ruiz Rico, Fernando 30 September 2013 (has links)
No description available.
33

Una aproximación léxico-semántica para el mapeado automático de medicamentos y su aplicación al enriquecimiento de ontologías farmacoterapéuticas

Cruañes Vilas, Jorge 10 October 2014 (has links)
Recientemente ha entrado en vigor en España una nueva legislación que afecta a la información existente en los medicamentos comercializados en este país. Ésta obliga a la inclusión de información de correspondencia respecto a la terminología internacional multilingüe SNOMED-CT. Este proceso es realizado actualmente de forma manual. Este es el punto de partida de este trabajo. Por tanto, el primer objetivo de esta tesis es obtener un método capaz de realizar estas correspondencias (mapeados) de forma automática. Para ello se hará uso de SNOMED-CT como terminología destino de los mapeados y, como origen, los medicamentos comercializados en España existentes en la ontología OntoFIS. Esta ontología ha sido poblada de forma semi-automática a partir de la base de datos oficial del Ministerio de Sanidad Español DIGITALIS. Usar una ontología en lugar de directamente la base de datos aporta ciertos beneficios, como la existencia de conocimiento semántico explicitado (relaciones semánticas), que supondrán una ayuda en el propio proceso de mapeado y, posteriormente, en otros procesos de marcado, extracción de información o clasificación. Para poder alcanzar este objetivo, sin embargo, es necesario equiparar los niveles de especificidad (también conocida como granularidad) de ambos recursos (OntoFIS y SNOMED-CT), ya que no es posible mapear dos recursos con diferentes granularidades. Finalmente, tras haber logrado establecer los mapeados entre ambas terminologías, el último objetivo de la tesis será el de utilizar dichos mapeados para ampliar semánticamente la ontología OntoFIS. Para la consecución de estos tres objetivos, y tras haber estudiado los trabajos existentes en el domino de salud en castellano e inglés, se ha optado por utilizar técnicas de Procesamiento del Lenguaje Natural (PLN), combinándolo con un sistema basado en patrones. Partiendo de las etiquetas del nombre de los medicamentos comercializados en España (nombres de especialidad) junto con las especificaciones existentes en la legislación vigente, se han extraídos una serie de patrones que ayudarán en el proceso de identificación de los elementos de un medicamento, como por ejemplo sus principios activos, sus concentraciones o la población objetivo a la que van dirigidos. Tras haber identificado los elementos componentes de la denominación de los medicamentos, se procede a crear nuevas etiquetas automáticamente para equiparar su granularidad a la existente en SNOMED-CT. Seguidamente se procede al mapeado de las nuevas etiquetas sobre las existentes en SNOMED-CT. El carácter multilingüe de ambos recursos permite poder utilizar el idioma castellano para realizar dicho mapeado. El mapeado se lleva a cabo mediante técnicas de PLN basadas en la similitud léxica, utilizando complementariamente una serie de recursos semánticos específicos creados manualmente. Para establecer la correspondencia se han considerado cuatro grados de mapeado. Estos grados van desde la equivalencia semántica absoluta hasta un mínimo nivel de similitud. De esta forma se maximiza la cobertura de los mapeados. Seguidamente, a partir de los resultados obtenidos en los mapeados y teniendo en cuenta los cuatro grados de diferenciación de los mapeados, se amplía el conocimiento de OntoFIS mediante un sistema basado en reglas. Estas reglas establecen cuánta información puede ser recuperada de los mapeados establecidos, en base al grado de similitud del mapeado. Dichas reglas persiguen evitar introducir información incorrecta o ambigua en OntoFIS. Para concluir, se ha realizado una prueba final a la propuesta, con el fin de establecer unos resultados sólidos sobre el funcionamiento global, validez y seguridad de la propuesta presentada, evitando el sesgo por el estudio cualitativo y las pruebas piloto en el refinamiento de los algoritmos propuestos. Esta prueba persigue una confianza en los resultados del 95%, con un margen de error del 5%. Tras la evaluación de dicha prueba se ha concluido que se han alcanzado todos los objetivos propuestos satisfactoriamente. En dichas pruebas la cobertura obtenida ha variado entre el 90,96% y el 100% y la precisión ha estado comprendida entre el 77,88% y el 100%.
34

Desarrollo de una metodología para el análisis, diseño, implantación y evaluación de soluciones e-learning de software libre en instituciones de educación superior

Chacón Rivas, Mario 05 February 2016 (has links)
No description available.
35

Sistema Computacional de Programación Flexible diseñado sobre una Máquina Abstracta Reflectiva No Restrictiva

Ortín Soler, Francisco 01 February 2002 (has links)
Esta tesis describe el modo en el que distintas técnicas de reflectividad pueden ser empleadas para el desarrollo de un sistema computacional de programación extensible y adaptable dinámicamente, sin sufrir dependencia alguna de un lenguaje de programación específico, y empleando para ello una plataforma virtual heterogénea.Se diseña una máquina abstracta, de tamaño y complejidad semántica reducida, como la raíz computacional del sistema, que otorga primitivas básicas de reflectividad. Tanto su tamaño restringido como su capacidad introspectiva, la hacen susceptible de ser implantada en entornos computacionales heterogéneos, constituyendo adicionalmente un entorno computacional independiente de la plataforma.Haciendo uso de las facultades reflectivas ofrecidas por la máquina abstracta su nivel de abstracción computacional podrá ser extendido dinámicamente, utilizando para ello su propio lenguaje de programación sin necesidad de modificar la implementación reducida de la máquina virtual, y, por tanto, sin perder portabilidad de su código. El empleo de su capacidad extensible se utilizará, a modo de ejemplo, en el diseño de abstracciones propias de persistencia, distribución, planificación controlada de hilos y recolección de basura. Todas las abstracciones ofrecidas mediante la extensión de la plataforma, utilizando su propio lenguaje, son adaptables para cualquier aplicación, en tiempo de ejecución.Se diseña un sistema de procesamiento genérico de lenguajes disponiendo de las características reflectivas de la plataforma, dando lugar a una independencia global del lenguaje de programación seleccionado por el programador. Cualquier aplicación podrá interactuar con otra bajo el modelo computacional de objetos ofrecido por la máquina abstracta, independientemente del lenguaje en el que hayan sido creadas.La flexibilidad dinámica del sistema creado es superior, tanto en expresividad como en el espectro de facetas computacionales adaptables, a los actualmente existentes. La estructura de las aplicaciones en ejecución, y la especificación léxica, sintáctica y semántica del lenguaje de programación, son parámetros configurables dinámicamente, tanto por la propia aplicación -en cualquiera que sea su lenguaje de programación-, como por cualquier otro programa. El sistema reflectivo ofrecido no posee restricción alguna respecto a las características computacionales a configurar, ni respecto al modo de expresar su adaptación. Toda la flexibilidad ofrecida es dinámica, no siendo necesario finalizar la ejecución de una aplicación para su configuración, pudiéndose adaptar ésta a requisitos surgidos dinámicamente, imprevisibles en tiempo de desarrollo.
36

Estudio de la planificabilidad y optimización de sistemas distribuidos de tiempo real basados en prioridades fijas y EDF

Rivas Concepción, Juan María 15 July 2015 (has links)
El trabajo llevado a cabo en esta tesis se centra en realizar un estudio en profundidad de las soluciones que producen las técnicas de análisis de planificabilidad y asignación de parámetros de planificación para sistemas distribuidos, como consecuencia del cual se obtienen una serie de resultados que pueden guiar al diseñador a identificar qué algoritmo de planificación o técnica debe aplicar a su problema. También se adaptan las técnicas de análisis y optimización existentes a su aplicación a un conjunto más amplio de sistemas, que permiten la mezcla de diferentes planificadores en los recursos procesadores del sistema distribuido, y se proponen nuevas técnicas de asignación de plazos locales de planificación para EDF. / The work carried out in this thesis focuses on performing an exhaustive study of the solutions produced by both the schedulability analysis techniques, and the scheduling parameters assignment techniques, for distributed systems. The results obtained in this study can help a real-time system designer to identify the algorithm or scheduling policy to be applied. Additionally, the current analysis and optimization techniques are adapted for their application to a wider range of systems, where each processing resource could use a different scheduling policy. New techniques for the assignment of local scheduling deadlines for EDF are also proposed.
37

Horizontal profiling: A sampling technique to identify performance regressions

Sandoval Alcocer, Juan January 2016 (has links)
Doctor en Ciencias, Mención Computación / Los cambios continuos en el código fuente de un programa pueden inadvertidamente introducir una regresión de rendimiento en tiempo de ejecución. Dichas regresiones se refieren a situaciones donde el rendimiento de un programa se degrada en comparación de versiones anteriores del mismo, aunque la nueva versión funcione correctamente. Ejecutar puntos de referencia en cada versión de un programa es una técnica tradicional utilizada para identificar regresiones en etapas tempranas. A pesar de ser efectiva, esta técnica exhaustiva es difícil de llevar a cabo en la práctica, principalmente por la alta sobrecarga que esta actividad demanda. En esta tesis, realizamos un estudio empírico sobre una variedad de programas, con el fin de evaluar cómo el rendimiento de un programa evoluciona en el tiempo, a medida que es modificado. Guiados por este estudio, proponemos Horizontal Profiling, una técnica de muestreo para inferir si una nueva versión de un programa introduce una variación de rendimiento, usando información de la ejecución de versiones anteriores. El objetivo de Horizontal Profiling es reducir la sobrecarga que requiere monitorear el rendimiento de cada versión, ejecutando los puntos de referencia solo en las versiones que contengan cambios costosos de código fuente. Presentamos una evaluación en la cual aplicamos Horizontal Profiling para identificar regresiones de rendimiento en un número de programas escritos en en el lenguaje de programación Pharo. En base a las aplicaciones que analizamos, encontramos que Horizontal Profiling es capaz de detectar más del 80% de las regresiones de rendimiento, ejecutando los puntos de referencia en menos del 20% de las versiones. Adicionalmente, describimos los patrones identificados durante nuestro estudio empírico, y detallamos cómo abordamos los numerosos desafíos que enfrentamos para completar nuestros experimentos. / Este trabajo ha sido parcialmente financiado por CONICYT a través de la beca CONICYT-PCHA/Doctorado Nacional para extranjeros/2013-63130199, OBJECT PROFILE y LAM RESEARCH
38

Análisis semántico y transformación de programas lógico-funcionales

Vidal Oriola, Germán Francisco 08 October 2015 (has links)
El problema de la integraci on de la programaci on l ogica y funcional est a considerado como uno de los m as importantes en el area de investigaci on sobre programaci on declarativa. Para que los lenguajes declarativos sean utiles y puedan utilizarse en aplicaciones reales, es necesario que el grado de e ciencia de su ejecuci on se aproxime al de los lenguajes imperativos, tal y como se ha conseguido con el lenguaje Prolog. Para ello, es imprescindible el desarrollo de herramientas potentes para el an alisis y transformaci on de los programas, capaces de optimizar las implementaciones realizadas. En general, es deseable sustituir las aproximaciones ad-hoc por tratamientos m as sistem aticos para los problemas de an alisis y transformaci on de programas. Puesto que la sem antica de los lenguajes l ogico{funcionales ha sido objeto de numerosos estudios y est a matem aticamente bien formalizada, surge el inter es por el desarrollo de m etodos y t ecnicas formales para la formulaci on de optimizaciones, basadas en la sem antica, que preserven las propiedades computacionales del programa. Esta tesis se centra en el desarrollo de tales t ecnicas, adopt andose una aproximaci on formal basada en la sem antica (operacional) del lenguaje para desarrollar y analizar, en un contexto uni cado, las diferentes optimizaciones. En la primera parte, desarrollamos un marco para el an alisis est atico de programas l ogico{funcionales, basado en la idea de construir aproximaciones correctas de la sem antica operacional del programa. Formalizamos un esquema de an alisis simple, uniforme y exible, que permite estudiar distintos tipos de propiedades (relacionadas con el conjunto de respuestas computadas por el programa) de manera correcta y f acilmente implementable. El esquema es independiente de la estrategia de narrowing usada en la formulaci on del mecanismo operacional del lenguaje, lo que contribuye a dar generalidad al mismo. Las t ecnicas de evaluaci on parcial son, de entre la gran variedad de t ecnicas existentes para la transformaci on de programas, las que mayor inter es han despertado en las dos ultimas d ecadas. Su utilidad no reside unicamente en la posibilidad de especializar programas, sino que sus aplicaciones se extienden tambi en a la generaci on autom atica de compiladores o a la optimizaci on de c odigo, por citar s olo las m as importantes. En la segunda parte de esta tesis mostramos que, en el contexto de los len- i guajes l ogico{funcionales, la especializaci on de programas se puede basar directamente en el mecanismo operacional de narrowing que, debido a la propagaci on bidireccional de par ametros realizada a trav es del procedimiento de uni caci on, es capaz de producir optimizaciones apreciables. Esta visi on uni cada de ejecuci on y especializaci on nos permite explotar las contribuciones de ambos campos, funcional y l ogico, y desarrollar un esquema simple y potente para mejorar el programa original respecto a su capacidad para computar respuestas. Tambi en mostramos que, debido a la componente funcional, son posibles otras optimizaciones (como la inclusi on de pasos de simpli - caci on deterministas) con el bene cio a~nadido de que, en nuestro esquema, todas las optimizaciones quedan `compiladas' en el programa transformado. Formalizamos los conceptos b asicos para la evaluaci on parcial de programas l ogico{funcionales y demostramos la correcci on y completitud de la transformaci on. El esquema presentado en este trabajo constituye la primera aproximaci on totalmente autom atica, correcta y nita para la evaluaci on parcial de programas l ogico{funcionales. / Vidal Oriola, GF. (1996). Análisis semántico y transformación de programas lógico-funcionales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55796
39

Extension del lambda-cálculo para la modelizacion de procesos concurrentes

Oliver Villarroya, Francisco Javier 16 December 2015 (has links)
El lambda-cálculo es una teoría sin tipos que interpreta las funciones como reglas, es decir, el proceso de ir de un argumento a un valor, un proceso codificado por una definición. La idea de utilizar el lambda-cálculo como un marco matemático para la descripción y el Razonamiento acerca de los sistemas computacionales es antigua. De hecho, gracias al análisis realizado por Turing, se puede afirmar que, a pesar de que su sintaxis Es muy simple, el lambda-cálculo es lo suficientemente potente para describir todas las funciones computables mecánicamente. Pero, como mostró G. Berry, la computación que captura el lambda-cálculo es esencialmente secuencial. Un desafío importante que, sobre Todo desde _males de los años ochenta, está implicando a muchos investigadores es la construcción de un marco similar al _-cálculo para la concurrencia y la comunicación entre procesos. El objetivo fundamental que guiara el trabajo que a continuación presentamos es la Formalización de un cálculo que extiende el lambda-cálculo para modelizar la concurrencia y la comunicación entre procesos. El lenguaje desarrollado se denomina lambda-cálculo Etiquetado Paralelo (LCEP). Su origen está en una propuesta inicial de H. A _t-Kaci (el _-calculo Etiquetado) que describe un lenguaje, extensión del lambda-cálculo, en el que los argumentos de las funciones se seleccionan mediante etiquetas, incluyendo tanto posiciones numéricas como simbólicas. Esta extensión es conservativa en el sentido de que, cuando el conjunto de etiquetas es el conjunto unario f1g, el lambda-cálculo Etiquetado coincide exactamente con el lambda-cálculo, condición que no se cumple en las otras propuestas que vamos a estudiar comparativamente como punto de partida. Para describir el nuevo cálculo vamos a utilizar una semántica operacional dada por un sistema de transición, a partir de la cual propondremos diferentes relaciones de equivalencia para modelar los distintos aspectos relacionados con el comportamiento operacional de los procesos. Por último, ya que la escritura directa de programas en LCEP resulta demasiado compleja en la mayoría de los casos como para pensar en _el como recurso expresivo adecuado para la programación, vamos a definir un lenguaje de más alto nivel, ALEPH, que posee los recursos expresivos deseables en programación y permite aprovechar la potencia computacional del sistema. Mostraremos como ALEPH se traduce a LCEP como código máquina y es a través de este como se realizan las ejecuciones de los programas. A lo largo del texto es importante descubrir que a través de una sintaxis razonablemente simple es posible expresar todas las características que conlleva la concurrencia dentro de un paradigma funcional / Oliver Villarroya, FJ. (1996). Extension del lambda-cálculo para la modelizacion de procesos concurrentes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58867
40

Modelo de landmarks temporales para problemas de planificación temporal altamente restringidos

Marzal Calatayud, Eliseo Jorge 07 March 2016 (has links)
[EN] Automated temporal planning deals with the construction of plans for problems specified with durative actions of possibly different duration. The goal of temporal planning is to select and schedule the actions so as to achieve the problem goals, and the optimality criteria is the plan makespan. However, many real-word application define goals with time constraints which may not be satisfied with the plan of optimal makespan. The 2006 International Planning Competition introduced the PDDL3.0 language and organized the first and only track in planning with state trajectory constraints, including time restrictions, soft constraints and preferences. Particularly, four domains that feature deadline constraints were tested at the IPC and two planners participated in such competition although no one exhibited a good performance or fully-correction in the fulfillment of deadlines. An early detection of unsolvability in temporal planning problems, specifically those with strict deadlines, is crucial for avoiding an unfruitful exploration of the search space. And this is precisely the objective of this PhD dissertation. This work contributes with a temporal landmark-based model embedded into a temporal planner that allows for a rapid and eficient identification of unsolvable problems with deadline constraints. Our model incorporates the basic model operators of PDDL3.0 for defining temporal constraints and extends the STRIPS landmark concept to a temporal context. A temporal landmark is associated to three intervals that denote the time frame of the generation, validity and necessity of the landmark in the plan, respectively. The set of temporal landmarks of a problem along with their ordering relations and temporal restrictions define a temporal landmark graph which comprises the relationships that must exist between the literals of a solution plan and, therefore, between the corresponding actions. As long as new data is incorporated in the graph, the landmarks intervals are updated and propagated accordingly, thus reflecting a more accurate picture of a solution plan. The temporal landmark model is integrated in a domain-independent temporal planner named TempLM. During the search process, TempLM uses the temporal landmark graph to prune those partial plans of the search tree that are not compliant with the information of the graph. Additionally, we present a further improvement by which a feedback routine between the landmarks graph and the plan of a node tree is established. This process is used to refine the information of the graph and likewise narrow the search. In the experimental evaluation, we show the effectiveness of the proposed approach for detecting unsolvability and solving temporal planning problems with tight deadline constraints. / [ES] El objetivo de la planificación temporal automática es la construcción de planes con acciones de diferente duración que necesitan ser programadas adecuadamente con el fin de conseguir los objetivos del problema. En planificación temporal, la optimalidad se mide como la duración del plan más corto. Sin embargo, en muchos problemas del mundo real es necesario gestionar restricciones temporales asociadas a los objetivos del problema que pueden no satisfacerse con el plan de menor duración. En la Competición Internacional de Planificación del año 2006 se presentó el lenguaje PDDL3.0 y se realizó la primera y única competición de planificadores con gestión de restricciones de trayectorias de estado y preferencias. Concretamente, en esta IPC se probaron cuatro dominios con restricciones temporales donde los objetivos deben satisfacerse dentro de un límite de tiempo establecido o deadline. Dos planificadores participaron en esta competición aunque ninguno presentó un buen comportamiento respecto al cumplimiento de los deadlines. En este tipo de problemas, especialmente cuando se trata de problemas altamente restringidos, es crucial detectar la irresolubilidad de los mismos lo antes posible, y en este punto es donde se establece nuestro objetivo. Este trabajo de tesis presenta un modelo de landmarks temporales que permite identificar rápida y eficientemente la irresolubilidad de problemas de planificación con restricciones. Nuestro modelo incorpora las restricciones temporales del lenguaje PDDL3.0 y extiende el concepto de landmark STRIPS al contexto temporal. A cada landmark temporal se le asocian tres tipos de intervalos que se actualizan y propagan de acuerdo a las relaciones de orden y restricciones temporales entre ellos. Los landmarks temporales junto con sus relaciones de orden y restricciones temporales forman un grafo de landmarks temporales donde se sintetiza las relaciones que existen entre los literales de un plan solución y, consecuentemente, entre sus correspondientes acciones. Cuando se añade nueva información al grafo, se actualizan y propagan los intervalos de los landmarks, reflejando una imagen más precisa del plan solución. Posteriormente, el modelo de landmarks temporales se integra en un planificador temporal heurístico independiente del dominio denominado TempLM. TempLM utiliza toda la información extraída del problema para podar los planes parciales en el árbol de búsqueda que no son compatibles con la información del grafo de landmarks temporales. Además, se dispone de un proceso de retroalimentación entre el grafo de landmarks temporales y el proceso de búsqueda de un plan solución que permite enriquecer el grafo y, asimismo, acotar el espacio de búsqueda. Los resultados experimentales muestran que esta aproximación detecta rápidamente problemas irresolubles y también es muy efectiva para resolver problemas con restricciones muy ajustadas. / [CAT] L'objectiu de la planificació temporal automàtica és la construcció de plans amb accions de diferent durada que necessiten ser programades adequadament amb la finalitat d'aconseguir els objectius del problema. En planificació temporal, l'optimitat es mesura com la durada del pla més curt. No obstant açò, en molts problemas del món real és necessari gestionar restriccions temporals associades als objectius del problema que poden no satisfer-se amb el pla de menor durada. En la Competició Internacional de Planificació de l'any 2006 es va presentar el llenguatge PDDL3.0 i es va realitzar la primera i única competició de planificadors amb gestió de restriccions de trajectòries d'estat i preferències. Concretament, en aquesta IPC es van provar quatre dominis amb restriccions temporals on els objectius han de satisfer-se dins d'un límit de temps establit o deadline. Dos planificadors van participar en aquesta competició encara que cap va presentar un bon comportament respecte al compliment dels deadlines. En aquest tipus de problemes, especialment quan es tracta de problemes altament restringits, és crucial detectar la irresolubilitat dels mateixos el més prompte possible, i en aquest punt és on s'estableix el nostre objectiu. Aquest treball de tesi presenta un model de landmarks temporals que permet identificar ràpida i eficientment la irresolubilitat de problemes de planificació amb restriccions. El nostre model incorpora les restriccions temporals del llenguatge PDDL3.0 i estén el concepte de landmark STRIPS al context temporal. A cada landmark temporal se li associen tres tipus d'intervals que s'actualitzen i propaguen d'acord a les relacions d'ordre i restriccions temporals entre ells. Els landmarks temporals juntament amb les seues relacions d'ordre i restriccions temporals formen un graf de landmarks temporals on se sintetitza les relacions que existeixen entre els literals d'un pla solució i, conseqüentment, entre les seues corresponents accions. Quan s'afig nova informació al graf, s'actualitzen i propaguen els intervals dels landmarks, reflectint una imatge més precisa del pla solució. Posteriorment, el model de landmarks temporals s'integra en un planificador temporal heurístic independent del domini denominat TempLM. TempLM utilitza tota la informació extreta del problema per a podar els plans parcials en l'arbre de cerca que no són compatibles amb la informació del graf de landmarks temporals. A més, es disposa d'un procés de retroalimentació entre el graf de landmarks temporals i el procés de cerca d'un pla solució que permet enriquir el graf i, així mateix, limitar l'espai de cerca. Els resultats experimentals mostren que aquesta aproximació detecta ràpidament problemes irresolubles i també és molt efectiva per a resoldre problemes amb restriccions molt ajustades. / Marzal Calatayud, EJ. (2016). Modelo de landmarks temporales para problemas de planificación temporal altamente restringidos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61460 / TESIS

Page generated in 0.0749 seconds