• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 168
  • 2
  • Tagged with
  • 350
  • 350
  • 350
  • 232
  • 117
  • 49
  • 46
  • 42
  • 40
  • 37
  • 37
  • 37
  • 37
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Toponym Disambiguation in Information Retrieval

Buscaldi, Davide 12 November 2010 (has links)
In recent years, geography has acquired a great importance in the context of Information Retrieval (IR) and, in general, of the automated processing of information in text. Mobile devices that are able to surf the web and at the same time inform about their position are now a common reality, together with applications that can exploit this data to provide users with locally customised information, such as directions or advertisements. Therefore, it is important to deal properly with the geographic information that is included in electronic texts. The majority of such kind of information is contained as place names, or toponyms. Toponym ambiguity represents an important issue in Geographical Information Retrieval (GIR), due to the fact that queries are geographically constrained. There has been a struggle to nd speci c geographical IR methods that actually outperform traditional IR techniques. Toponym ambiguity may constitute a relevant factor in the inability of current GIR systems to take advantage from geographical knowledge. Recently, some Ph.D. theses have dealt with Toponym Disambiguation (TD) from di erent perspectives, from the development of resources for the evaluation of Toponym Disambiguation (Leidner (2007)) to the use of TD to improve geographical scope resolution (Andogah (2010)). The Ph.D. thesis presented here introduces a TD method based on WordNet and carries out a detailed study of the relationship of Toponym Disambiguation to some IR applications, such as GIR, Question Answering (QA) and Web retrieval. The work presented in this thesis starts with an introduction to the applications in which TD may result useful, together with an analysis of the ambiguity of toponyms in news collections. It could not be possible to study the ambiguity of toponyms without studying the resources that are used as placename repositories; these resources are the equivalent to language dictionaries, which provide the di erent meanings of a given word. / Buscaldi, D. (2010). Toponym Disambiguation in Information Retrieval [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8912 / Palancia
82

Contributions to High-Dimensional Pattern Recognition

Villegas Santamaría, Mauricio 20 May 2011 (has links)
This thesis gathers some contributions to statistical pattern recognition particularly targeted at problems in which the feature vectors are high-dimensional. Three pattern recognition scenarios are addressed, namely pattern classification, regression analysis and score fusion. For each of these, an algorithm for learning a statistical model is presented. In order to address the difficulty that is encountered when the feature vectors are high-dimensional, adequate models and objective functions are defined. The strategy of learning simultaneously a dimensionality reduction function and the pattern recognition model parameters is shown to be quite effective, making it possible to learn the model without discarding any discriminative information. Another topic that is addressed in the thesis is the use of tangent vectors as a way to take better advantage of the available training data. Using this idea, two popular discriminative dimensionality reduction techniques are shown to be effectively improved. For each of the algorithms proposed throughout the thesis, several data sets are used to illustrate the properties and the performance of the approaches. The empirical results show that the proposed techniques perform considerably well, and furthermore the models learned tend to be very computationally efficient. / Villegas Santamaría, M. (2011). Contributions to High-Dimensional Pattern Recognition [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/10939 / Palancia
83

Towards a Framework for Proving Termination of Maude Programs

Alarcón Jiménez, Beatriz 10 June 2011 (has links)
Maude es un lenguaje de programación declarativo basado en la lógica de reescritura que incorpora muchas características que lo hacen muy potente. Sin embargo, a la hora de probar ciertas propiedades computacionales esto conlleva dificultades. La tarea de probar la terminación de sistemas de reesctritura es de hecho bastante dura, pero aplicada a lenguajes de programación reales se concierte en más complicada debido a estas características inherentes. Esto provoca que métodos para probar la terminación de este tipo de programas requieran técnicas específicas y un análisis cuidadoso. Varios trabajos han intentado probar terminación de (un subconjunto de) programas Maude. Sin embargo, todos ellos siguen una aproximación transformacional, donde el programa original es trasformado hasta alcanzar un sistema de reescritura capaz de ser manejado con las técnicas y herramientas de terminación existentes. En la práctica, el hecho de transformar los sistemas originales suele complicar la demostración de la terminación ya que esto introduce nuevos símbolos y reglas en el sistema. En esta tesis, llevamos a cabo el problema de probar terminación de (un subconjunto de) programas Maude mediante métodos directos. Por un lado, nos centramos en la estrategia de Maude. Maude es un lenguaje impaciente donde los argumentos de una función son evaluados siempre antes de la aplicación de la función que los usa. Esta estrategia (conocida como llamada por valor) puede provocar la no terminación si los programas no están escritos cuidadosamente. Por esta razón, Maude (en concreto) incorpora mecanismos para controlar la ejecución de programas como las anotaciones sintácticas que están asociadas a los argumentos de los símbolos. En reescritura, esta estrategia sería conocida como reescritura sensible al contexto innermost (RSCI). Por otro lado, Maude también incorpora la posibilidad de declarar atributos. / Alarcón Jiménez, B. (2011). Towards a Framework for Proving Termination of Maude Programs [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11003 / Palancia
84

SABACO: Extensiones a los Algoritmos de Optimización basados en Colonias de Hormigas para la Toma de Decisiones Influenciada por Emociones y el Aprendizaje de Secuencias Contextuales en Ambientes Inteligentes

Mocholí Agües, Jose Antonio 20 July 2011 (has links)
En el trabajo que presentamos en esta tesis hacemos inicialmente una revisión de cómo ha ido evolucionando la interacción hombre máquina en el contexto de la computación, desde los primeros y escasos computadores hasta el momento actual, en el que los avances tecnológicos han permitido que, en muchos de los escenarios en los que se desarrolla nuestra vida diaria, estemos rodeados de diversos dispositivos electrónicos con los que interactuamos para hacer uso de alguno de los servicios que ofrecen. Veremos cómo esta difusión tecnológica ha introducido los sistemas de información en ámbitos más allá del contexto del trabajo, como la educación o el hogar, haciendo necesario que se tenga en cuenta en el diseño de los sistemas no sólo la funcionalidad o facilidad de uso sino también otros factores como la experiencia de uso o las emociones que siente una persona al interactuar con el sistema. Además, ha dado lugar a la aparición de los conocidos como ambientes inteligentes, en los que son los sistemas presentes en el entorno los que deben adaptarse al usuario y al contexto en el que se encuentra, adaptación que, dados los nuevos contextos en los tiene lugar la interacción con el usuario, plantea algunos retos. En particular, en el presente trabajo identificamos dos factores clave que los ambientes inteligentes deben tener en cuenta para tomar las decisiones y llevar a cabo las acciones adecuadas para conseguir una mejor adaptación al usuario y al contexto. Estos factores son la influencia de las emociones en la interacción y la utilización de la información contextual histórica. Por ello hacemos una revisión tanto de las propuestas de sistemas de decisión influenciados por emociones existentes en el área de la computación afectiva, como de las propuestas de sistemas sensibles al contexto, mostrando propuestas basadas en sistemas multiagente, redes neuronales, modelos ocultos de Markov, e introduciendo las técnicas metaheurísticas. Recientemente parece haber un sentimiento en la comunidad investigadora sobre la necesidad de aproximaciones híbridas para resolver problemas reales, no existe por desgracia una base sistemática que describa de forma rigurosa como proceder para combinar las distintas aproximaciones existentes. / Mocholí Agües, JA. (2011). SABACO: Extensiones a los Algoritmos de Optimización basados en Colonias de Hormigas para la Toma de Decisiones Influenciada por Emociones y el Aprendizaje de Secuencias Contextuales en Ambientes Inteligentes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11225 / Palancia
85

Automating Routine Tasks in Smart Environments. A Context-aware Model-driven Approach

Serral Asensio, Estefanía 19 September 2011 (has links)
Ubiquitous and Pervasive computing put forth a vision where environments are enriched with devices that provide users with services to serve them in their everyday lives. The building of such environments has the final objective of automating tedious routine tasks that users must perform every day. This automation is a very desirable challenge because it can considerably reduce resource consumption and improve users' quality of life by 1) making users' lives more comfortable, eficient, and productive, and 2) helping them to stop worrying and wasting time in performing tasks that need to be done and that they do not enjoy. However, the automation of user tasks is a complicated and delicate matter because it may bother users, interfere in their goals, or even be dangerous. To avoid this, tasks must be automated in a non-intrusive way by attending to users' desires and demands. This is the main goal of this thesis, that is, to automate the routine tasks that users want the way they want them. To achieve this, we propose two models of a high level of abstraction to specify the routines to be automated. These models provide abstract concepts that facilitate the participation of end-users in the model specification. In addition, these models are designed to be machine-processable and precise-enough to be executable models. Thus, we provide a software infrastructure that is capable of automating the specified routines by directly interpreting the models at runtime. Therefore, the routines to be automated are only represented in the models. This makes the models the primary means to understand, interact with, and modify the automated routines. This considerably facilitates the evolution of the routines over time to adapt them to changes in user behaviour. Without this adaptation, the automation of the routines may not only become useless for end-users but may also become a burden on them instead of being a help in their daily life. / Serral Asensio, E. (2011). Automating Routine Tasks in Smart Environments. A Context-aware Model-driven Approach [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11550 / Palancia
86

Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation

Ortiz Martínez, Daniel 14 October 2011 (has links)
This thesis presents different contributions in the fields of fully-automatic statistical machine translation and interactive statistical machine translation. In the field of statistical machine translation there are three problems that are to be addressed, namely, the modelling problem, the training problem and the search problem. In this thesis we present contributions regarding these three problems. Regarding the modelling problem, an alternative derivation of phrase-based statistical translation models is proposed. Such derivation introduces a set of statistical submodels governing different aspects of the translation process. In addition to this, the resulting submodels can be introduced as components of a log-linear model. Regarding the training problem, an alternative estimation technique for phrase-based models that tries to reduce the strong heuristic component of the standard estimation technique is proposed. The proposed estimation technique considers the phrase pairs that compose the phrase model as part of complete bisegmentations of the source and target sentences. We theoretically and empirically demonstrate that the proposed estimation technique can be efficiently executed. Experimental results obtained with the open-source THOT toolkit also presented in this thesis, show that the alternative estimation technique obtains phrase models with lower perplexity than those obtained by means of the standard estimation technique. However, the reduction in the perplexity of the model did not allow us to obtain improvements in the translation quality. To deal with the search problem, we propose a search algorithm which is based on the branch-and-bound search paradigm. The proposed algorithm generalises different search strategies that can be accessed bymodifying the input parameters. We carried out experiments to evaluate the performance of the proposed search algorithm. / Ortiz Martínez, D. (2011). Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12127 / Palancia
87

Rewriting-based Verification and Debugging of Web Systems

Romero ., Daniel Omar 02 November 2011 (has links)
The increasing complexity of Web system has led to the development of sophisticated formal methodologies for verifying and correcting Web data and Web programs. In general, establishing whether a Web system behaves correctly with respect to the original intention of the programmer or checking its internal consistency are non-trivial tasks as witnessed by many studies in the literature. In this dissertation, we face two challenging problems related to the verification of Web systems. Firstly, we extend a previous Web verification framework based on partial rewriting by providing a semi-automatic technique for repairing Web systems. We propose a basic repairing methodology that is endowed with several strategies for optimizing the number of repair actions that must be executed in order to fix a given Web site. Also, we develop an improvement of the Web verification framework that is based on abstract interpretation and greatly enhances both efficiency and scalability of the original technique. Secondly, we formalize a framework for the specification and model-checking of dynamic Web applications that is based on Rewriting Logic. Our framework allows one to simulate the user navigation and the evaluation of Web scripts within a Web application, and also check important related properties such us reachability and consistency. When a property is refuted, a counter-example with the erroneous trace is delivered. Such information can be analyzed in order to debug the Web application under examination by means of a novel backward trace slicing technique that we formulated for this purpose. This technique consists in tracing back, along an execution trace, all the relevant symbols of the term (or state) that we are interested to observe. / Romero ., DO. (2011). Rewriting-based Verification and Debugging of Web Systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12496 / Palancia
88

Case-Based Argumentation in Agent Societies

Heras Barberá, Stella María 02 November 2011 (has links)
Hoy en día los sistemas informáticos complejos se pueden ven en términos de los servicios que ofrecen y las entidades que interactúan para proporcionar o consumir dichos servicios. Los sistemas multi-agente abiertos, donde los agentes pueden entrar o salir del sistema, interactuar y formar grupos (coaliciones de agentes u organizaciones) de forma dinámica para resolver problemas, han sido propuestos como una tecnología adecuada para implementar este nuevo paradigma informático. Sin embargo, el amplio dinamismo de estos sistemas requiere que los agentes tengan una forma de armonizar los conflictos que surgen cuando tienen que colaborar y coordinar sus actividades. En estas situaciones, los agentes necesitan un mecanismo para argumentar de forma eficiente (persuadir a otros agentes para que acepten sus puntos de vista, negociar los términos de un contrato, etc.) y poder llegar a acuerdos. La argumentación es un medio natural y efectivo para abordar los conflictos y contradicciones del conocimiento. Participando en diálogos argumentativos, los agentes pueden llegar a acuerdos con otros agentes. En un sistema multi-agente abierto, los agentes pueden formar sociedades que los vinculan a través de relaciones de dependencia. Estas relaciones pueden surgir de sus interacciones o estar predefinidas por el sistema. Además, los agentes pueden tener un conjunto de valores individuales o sociales, heredados de los grupos a los que pertenecen, que quieren promocionar. Las dependencias entre los agentes y los grupos a los que pertenecen y los valores individuales y sociales definen el contexto social del agente. Este contexto tiene una influencia decisiva en la forma en que un agente puede argumentar y llegar a acuerdos con otros agentes. Por tanto, el contexto social de los agentes debería tener una influencia decisiva en la representación computacional de sus argumentos y en el proceso de gestión de argumentos. / Heras Barberá, SM. (2011). Case-Based Argumentation in Agent Societies [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12497 / Palancia
89

MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONES

Arangú Lobig, Marlene Alicia 23 December 2011 (has links)
Hoy en día, muchos problemas reales pueden ser modelados como problemas de satisfacción de restricciones (CSPs) y ser resueltos utilizando técnicas de programación de restricciones. Estos problemas pertenecen a diferentes áreas de conocimiento tales como inteligencia artificial, investigación operativa, sistemas de información, bases de datos, etc. Los CSPs pertenecen a la categoría de problemas NP-completos por lo que es necesario el uso de herramientas que simplifiquen el problema de forma que se encuentre una solución de forma eficiente. Las técnicas más comunes para manejar un CSP son las técnicas de consistencia y las técnicas de búsqueda. Las técnicas de consistencia o de filtrado tienen por objeto reducir el espacio de búsqueda mediante el filtrado de los dominios de las variables. Las técnicas de arcoconsistencia son las más utilizadas ya que llevan a cabo una importante poda de dominios; eliminando valores que no formaran parte de la solución; de una manera eficiente. Por ello, proponer algoritmos que alcancen la arco-consistencia ha sido un punto central en la comunidad científica reduciendo la complejidad tanto espacial como temporal de estos algoritmos. Sin embargo, muchos trabajos que investigan la arco-consistencia llevan a cabo asumpciones que no están presentes en muchos problemas de la vida real. Por ejemplo, un mismo par de variables pueden participar en más de una restricción (lo que se denomina problema no-normalizado), y cuando el tamaño de los dominios es grande, el proceso de normalización puede resultar prohibitivo. En estos casos la 2-consistencia lleva a cabo una reducción de los dominios de las variables mayor que la arco-consistencia por lo que los algoritmos de búsqueda pueden resultar más eficientes. Sin embargo, la literatura es escasa en relación al desarrollo de algoritmos que alcancen la 2-consistencia. En esta tesis presentamos nuevos algoritmos de arco-consistencia y de 2-consistencia como algoritmos de preproceso para la resolución de problemas de satisfacción de restricciones. / Arangú Lobig, MA. (2011). MODELOS Y TÉCNICAS DE CONSISTENCIA EN PROBLEMAS DE SATISFACCIÓN DE RESTRICCIONES [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14120 / Palancia
90

Aplicaciones de la aritmética en coma fija a la representación de primitivas gráficas de bajo nivel

Mollá Vayá, Ramón Pascual 04 May 2012 (has links)
La aritmética en coma fija tiene la propiedad de realizar operaciones con números decimales con un coste computacional entero. A pesar de no estar soportada de forma nativa por los lenguajes de programación y por las CPUs generalistas, es la aritmética ideal para aplicaciones de control industrial, simulación, informática gráfica, multimedia y señal digital, etc. Su falta de normalización y soporte impide su uso extendido en muchos campos de la informática. Esta tesis justifica la utilización de esta aritmética en el campo de los gráficos por computador. A partir de un estudio de implementación y normalización de la aritmética, se estudian incrementos de potencia relativos y precisiones obtenidas y su aplicación a la simulación discreta y de vuelo. Se analizan los algoritmos de dibujo de primitivas básicas como las líneas, con y sin aliasing, su recortado y el dibujo de circunferencias y elipses. Se presentan algunas implementaciones de algoritmos basados en la coma fija y se analiza la mejora del coste computacional y de la precisión obtenida respecto de los algoritmos de fuerza bruta y de los tradicionales. Mientras los algoritmos tradicionales suelen entregar un error comprendido entre los 0.32 y 0.45 píxeles, dependiendo de la primitiva analizada, los algoritmos basados en la coma fija no superan los 0.25 de media, igualando el error teórico generado por los algoritmos de fuerza bruta. Por otro lado, los algoritmos basados en la aritmética en coma fija suelen mejorar la velocidad media de los algoritmos tradicionales, pudiéndose a veces conseguir aceleraciones elevadas si se utilizan técnicas de paralelización. Éste sería el caso de la versión paralela del algoritmo DDA con y sin antialiasing que podría dibujar una recta con coste temporal logarítmico respecto de su longitud en píxeles. Los algoritmos obtenidos son tan sencillos que pueden ser implementados algunos de ellos en hardware dentro de un procesador gráfico de forma muy eficiente. / Mollá Vayá, RP. (2001). Aplicaciones de la aritmética en coma fija a la representación de primitivas gráficas de bajo nivel [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15406 / Palancia

Page generated in 0.3966 seconds