• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 34
  • 1
  • Tagged with
  • 117
  • 117
  • 117
  • 117
  • 21
  • 19
  • 18
  • 18
  • 15
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Clasificadores eficaces basados en algoritmos rápidos de búsqueda del vecino más cercano

Moreno Seco, Francisco January 2004 (has links)
No description available.
32

Resolución de información temporal y su aplicación a la búsqueda de respuestas

Saquete Boró, Estela 14 June 2005 (has links)
Cofinanciado por el Gobierno de España (CICyT) con los proyectos número TIC2000-0664-C02-02 y número TIC2003-07158-C04-01, y el Gobierno de la Comunidad Valenciana (OCyT) con el proyecto número CTIDIB-2002-151.
33

Stochastic language models for music information retrieval

Pérez-Sancho, Carlos 20 July 2009 (has links)
No description available.
34

Búsqueda de respuestas en dominios restringidos: aplicación sobre el dominio agrícola

Vila Rodríguez, Katia 06 October 2010 (has links)
No description available.
35

Symbolic music comparison with tree data structures

Rizo, David 22 November 2010 (has links)
No description available.
36

Gestión de procesos sobre una arquitectura orientada a servicios en repositorios de objetos de aprendizaje

Marco Such, Manuel 18 June 2011 (has links)
No description available.
37

Text summarisation based on human language technologies and its applications

Lloret, Elena 26 June 2011 (has links)
No description available.
38

A semantic approach to temporal information processing / Una aproximació semàntica al processament de la informació temporal

Llorens Martínez, Héctor 07 July 2011 (has links)
This thesis is focused on temporal information processing, which is a task framed in the field of natural language processing. The aim of this task is to obtain the temporal location and ordering of the events expressed in text or discourse, which requires the automatic interpretation of temporal expressions, events, and the temporal relations between them. The majority of current approaches are based on morphosyntactic knowledge. However, temporal entities are often ambiguous at that language analysis level. Our hypothesis is that the linguistic expression of time is a semantic phenomenon and therefore, to achieve a better extraction performance, temporal information must be processed using semantics. To prove this hypothesis, we present a semantic approach to temporal information processing: TIPSem. This is an automated system that includes features based on lexical semantics, semantic roles, and temporal semantics, in addition to morphosyntactic features. TIPSem has been empirically evaluated through the participation in the TempEval-2 international evaluation exercise and subsequent experiments based on this test. The results obtained firmly support the presented hypothesis and their analysis demonstrates that semantic features aid in handling morphosyntactic ambiguity and favour generalization capabilities. These conclusions have been reached for different languages (i.e., English, Spanish, Italian, and Chinese), which supports the defended hypothesis at a multilingual level. Finally, as compared with the state of the art, TIPSem obtains a very competitive performance level and introduces a remarkable improvement in event processing. TIPSem has been applied to the problem of graphical representation of temporal information. We have developed a dynamic interface which brings users time-based access to information: Time-Surfer. The results obtained through a user-oriented evaluation of this interface demonstrate that TIPSem’s performance is also satisfactory from an extrinsic standpoint. / This PhD thesis has been supported by the Spanish Government, in projects: TIN-2006-15265-C06-01, TIN-2009-13391-C04-01 and PROMETEO/2009/119, where Hector Llorens is funded under a FPI grant (BES-2007-16256).
39

Análisis semántico multidimensional aplicado a la desambiguación del lenguaje natural

Gutiérrez, Yoan 30 January 2012 (has links)
No description available.
40

Detección de regularidades en contornos 2D, cálculo aproximado de medianas y su aplicación en tareas de clasificación

Abreu Salas, José Ignacio 12 September 2012 (has links)
El trabajo se enfoca en dos problemas principales: la identificación de similitudes y la obtención del promedio para contornos representados mediante cadenas de Freeman. Estos problemas son abordados empleando información obtenida en el cálculo de la distancia de Levenshtein entre las cadenas que codifican los contornos. En la tesis se presenta un nuevo método para cuantificar la regularidad entre los contornos y establecer una comparación en términos de un criterio de similitud. El criterio empleado permite encontrar subsecuencias de la cadena de operaciones de edición con coste mínimo que especifican un alineamiento entre pares de segmentos, uno en cada contorno, que se consideran semejantes de acuerdo a dos parámetros definidos externamente. La información sobre las partes similares en cada contorno queda codificada por una cadena que representa el "promedio" de los segmentos. A partir de la identificación de las similitudes, se define un procedimiento para construir un prototipo que representa a los contornos. Para evaluar que tan representativa es esta instancia se sustituyen grupos de contornos por su prototipo en el conjunto de entrenamiento de un clasificador K-NN. De este modo se logra reducir la talla del conjunto de entrenamiento sin afectar sensiblemente su poder de representación. Resultados experimentales muestran que este procedimiento es capaz de alcanzar reducciones del conjunto de entrenamiento cercanas al 80% mientras el error en la clasificación solo aumenta en un 0.45% en una de las bases de datos estudiadas. Por otra parte, se propone un nuevo algoritmo para el cálculo rápido de una aproximación a la media entre dos cadenas representando un contorno 2D, así como una implementación voraz que permite reducir significativamente el tiempo necesario para construir la aproximación al contorno medio. Éste se combina junto a un nuevo método de edición que suaviza las restricciones impuestas por el algoritmo de Wilson para desechar una instancia. En la práctica, no todas las instancias mal clasificadas por sus vecinos son eliminadas. En su lugar, una instancia artificial es añadida al conjunto esperando que de este modo la instancia se clasifique correctamente en el futuro. La instancia artificial es la media entre la instancia mal clasificada y su vecino más próximo de igual clase. Los experimentos desarrollados empleando tres conocidos conjuntos de contornos denotan que los algoritmos propuestos mejoran los resultados de otros métodos descritos en la literatura para el cálculo del promedio de dos contornos. El bajo coste computacional de la implementación voraz la hace muy adecuada para cadenas de Freeman de gran longitud. Resultados empíricos demuestran además que mediante el procedimiento de edición descrito es posible reducir el error en la clasificación en 83% de los casos, independientemente del algoritmo empleado para obtener el contorno promedio. Finalmente, se describe un algoritmo para construir una aproximación a la media de un conjunto de cadenas, la que se obtiene a través de sucesivas mejoras a una solución parcial. En cada iteración se calcula la distancia de la solución parcial a cada cadena del conjunto llevando cuenta de la frecuencia de las operaciones de edición en cada posición de la media aproximada. Esta información permite calcular un índice de calidad al multiplicar la frecuencia por el coste de la operación. Cada operación es evaluada, comenzando por aquella con mejor calidad, para valorar si su aplicación conduce a una mejora. En caso afirmativo, se comienza una nueva iteración a partir de la nueva solución. El algoritmo concluye después de examinar todas las operaciones sin que se logre una mejora. Los experimentos comparativos utilizando cadenas de Freeman muestran que se puede obtener aproximaciones equivalente a otros enfoques pero en menor tiempo.

Page generated in 0.0606 seconds