• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 7
  • 3
  • Tagged with
  • 67
  • 67
  • 45
  • 41
  • 18
  • 17
  • 14
  • 13
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Diseño e implementación de un módulo de gestión de repuestos críticos para una flota de equipos de transporte

López Sánchez, Gonzalo Patricio January 2016 (has links)
Ingeniero Civil Mecánico / Lo que motiva la realización de este trabajo es la necesidad de generar una plataforma que facilite la gestión del mantenimiento de cualquier organización cuyo principal activo sea la maquinaria de transporte. Esta plataforma debe ser más versátil, económica, amigable y orientada al usuario, que las soluciones actualmente presentes en el mercado. En la actualidad existen algunas soluciones que permiten gestionar activos en términos de orden y costos, y otras que admiten realizar análisis más complejos ligados a temas de confiabilidad, mas no existe una solución que trate ambos temas simultáneamente de forma simple. Además, dichas aplicaciones suelen tener un elevado costo económico y presentan un desafío en su implementación. Con este trabajo da respuesta a la necesidad de generar una herramienta que permita abordar ambas temáticas adecuadamente y acercar las metodologías modernas del mantenimiento a un universo de usuarios amplio, diverso y dinámico. Junto con la conceptualización general de esta plataforma, este trabajo profundiza en el tema del manejo de insumos y bodega, generando un asistente virtual que permite al usuario definir la mejor política de gestión de repuestos, considerando la condición de operación de los activos, entregándole acceso a diversos modelos de estimación de demanda. El usuario es guiado mediante una serie de preguntas al modelo que mejor se ajuste a su necesidad. Los modelos escogidos fueron implementados y probados con ayuda del software MATLAB®, y sus resultados fueron contrastados con información real proveniente de una flota de camiones de transporte de mineral no metálico. Se realizaron modificaciones a los modelos recopilados de modo de incorporar un cierto grado de incertidumbre a los parámetros definidos como constantes. En el trabajo se describen conceptualmente las características de la plataforma informática que permiten manejar dicha información, junto con llevar un control centralizado de las labores relacionadas con el mantenimiento: su optimización, requerimientos de bodega, tiempos de respuesta, historiales, entre otras tareas. Durante el trabajo se utilizan diversas técnicas de priorización y selección las cuales son aplicadas a la base de datos, de forma tal de obtener repuestos cuyos parámetros se ajustan a los requerimientos de cada modelo. La aplicación generada permite escoger entre distintos modelos de predicción de requerimientos de repuestos, lo que para posibilita establecer buenas alternativas para la planificación de la adquisición y manejo de inventarios, niveles críticos de reposición, entre otros. Adicionalmente, se desarrolla un manual de usuario de la aplicación. Su desarrollo considera que pueda ser a futuro parte de una plataforma integral de gestión de activos físicos y la incorporación de nuevos modelos a su programación.
52

Autoevaluación de bibliotecas universitarias: modelo de medición y diagnóstico a partir de datos estadísticos

Fushimi, Marcela Susana January 2003 (has links) (PDF)
Objetivo general El presente trabajo tiene como objetivo desarrollar una herramienta de apoyo para la autoevaluación de las bibliotecas universitarias argentinas, basada en la utilización de datos estadísticos generales acerca de población, recursos, productos y servicios de las bibliotecas. Esta herramienta permite calcular y obtener, a partir de los datos ingresados, indicadores de rendimiento que proporcionan información útil para realizar un diagnóstico y autoevaluación de una biblioteca universitaria. Objetivos específicos - Desarrollar un formulario estadístico normalizado y automatizado para el relevamiento de datos uniformes. - Estudiar, seleccionar, aplicar y desarrollar indicadores de desempeño y rendimiento de experiencias existentes en otros países y de los datos disponibles en nuestro ámbito. - Aplicar el formulario desarrollado al estudio de casos concretos. - Identificar los datos básicos necesarios y la forma en que deben recopilarlos para aplicarlos al cálculo de los indicadores seleccionados.
53

La teoría del agotamiento del derecho de distribución y su aplicación en un entorno digital

Plana Perillán, Javiera Beatriz January 2014 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / La teoría del agotamiento del derecho permite el acceso masivo al público de las obras protegidas por el derecho de autor. Con la llegada de internet, la implementación de esta teoría, así como sus efectos tradicionales se ponen en duda, por lo que resulta necesario revisar los alcances y condiciones de aplicación del agotamiento, con el fin de poder determinar si es factible o no adaptarla al entorno digital. En la siguiente investigación abordamos este conflicto, revisando a fondo tanto la institucionalidad que envuelve al agotamiento, como los principales obstáculos que surgen con el cambio a un entorno digital. Finalmente, argumentaremos que es posible implementar una teoría del agotamiento en internet, pese a las dificultades
54

Sistema de búsqueda y comparación de documentos

Castro Hidalgo, Miguel, Viale López, Javier Alberto 19 March 2013 (has links)
El presente trabajo se orienta a la investigación de cómo realizar análisis automático de texto por computadora y sobre métodos de búsqueda. Los resultados de esta investigación serán implementados en un sistema de búsqueda de documentos para la Universidad Peruana de Ciencias Aplicadas. Los proyectos de tesis y tesis sustentadas serán los documentos a analizar. La necesidad y actualidad del trabajo se puede sustentar desde dos puntos de vista: el empresarial y el educativo. En primer lugar, las empresas no cuentan con un sistema que les permita explotar la información contenida en documentos que se generan en sus diferentes procesos del negocio: publicaciones, artículos, Internet y libros. Desde el punto de vista educativo es importante realizar una investigación para crear una nueva herramienta que facilite la búsqueda de documentos, ya que esto servirá como desarrollo educativo y profesional. El objetivo principal del presente trabajo es desarrollar un sistema para facilitar la búsqueda de información inmersa en diversos documentos, realizando análisis de contenido de textos, con lo cual mejorará la administración de los documentos. En la primera parte de este documento se presentará los métodos del análisis automático del contenido textual, los de búsqueda que se realizan en Internet, y de otros métodos complementarios que ayudarán al desarrollo del sistema; luego se presenta el análisis de requerimientos, el modelado del negocio, el modelado del sistema y por último los experimentos desarrollados para determinar los métodos que permitan comparar documentos. Dentro de los resultados esperados más relevantes se pueden encontrar los siguientes:  El sistema podrá ser una herramienta que permita explotar información que se encuentra en una variedad de documentos.  El sistema permitirá un mayor control por parte de los profesores y alumnos en los temas de tesis desarrollados y por desarrollarse, ya que servirá para realizar consultas y búsquedas.  El sistema será capaz de convertir el texto a una notación matemática que permita su posterior utilización en las comparaciones y búsquedas. / Tesis
55

Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computación

León Shimabukuro, Alexis Enrique 13 February 2019 (has links)
En la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante.
56

On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism

Barrón Cedeño, Luis Alberto 08 June 2012 (has links)
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012
57

Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingües

Rebaza Valdivia, Carlos Alberto 17 October 2024 (has links)
Los diccionarios han sido, durante siglos, fundamentales para el entendimiento y la preservación de las lenguas. Fueron también la última palabra para resolver muchas discusiones, actuando como autoridades definitivas en cuestiones de significado y uso correcto de las palabras. La importancia de los diccionarios radica en su capacidad para proporcionar a los lectores una referencia confiable y precisa que facilita la comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada nueva edición de un diccionario requiere un esfuerzo considerable para incorporar cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un mundo en constante evolución. La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario, el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento cuidadoso para asegurar que las definiciones sean precisas y relevantes para el contexto en el que se utilizarán. Este proceso implica no solo identificar todos los posibles significados de una palabra, sino también determinar cuál de estos es más adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse de que las definiciones sean claras y comprensibles, evitando ambigüedades y proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona constantemente, haciendo imprescindible la utilización de herramientas avanzadas que apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del diccionario. Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se enfocan en la edición y presentación de las entradas del diccionario, orientadas a detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como un ente vivo en constante evolución que refleja cambios sociales, culturales y tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un desafío significativo para la lexicografía tradicional. La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del conocimiento, permitiendo representar de manera precisa las relaciones entre los términos. Por otro lado, las folksonomías, que son sistemas de clasificación colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua de los diccionarios, sino que también permite ofrecer definiciones más precisas y relevantes. Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por palabras de uso más frecuente, facilitando la creación de entradas más accesibles y relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran estar sujetas a algún tipo de censura, esta información puede ser comunicada al lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el diccionario cumpla con las expectativas y necesidades de sus lectores. / Dictionaries have been fundamental for the understanding and preservation of languages for centuries. They have also been the final authority to resolve many discussions, acting as definitive authorities on questions of meaning and correct use of words. The importance of dictionaries lies in their ability to provide readers with a reliable and precise reference that facilitates effective communication and learning. However, creating a dictionary is an arduous and meticulous task that can take decades to complete. This process involves the exhaustive collection of lexical data, detailed analysis of words and their multiple meanings, and verification of their use in different contexts. Each new edition of a dictionary requires considerable effort to incorporate changes in language, including the addition of new words, modification of existing definitions, and elimination of obsolete terms. This intense labor ensures that dictionaries remain valuable and relevant resources in a constantly evolving world. Lexicography, the discipline dedicated to the creation and study of dictionaries, faces numerous challenges in its practice. Beyond designing the structure of the dictionary, the lexicographer must deal with the complexity of language, where one of the greatest challenges is polysemy. Words with multiple meanings require careful treatment to ensure that definitions are precise and relevant to the context in which they will be used. This process involves not only identifying all possible meanings of a word but also determining which of these is most appropriate for the target reader of the dictionary. Additionally, the lexicographer must ensure that definitions are clear and understandable, avoiding ambiguities and providing usage examples that adequately illustrate each meaning. This challenge is amplified in a dynamic linguistic environment where language constantly evolves, making it essential to use advanced tools that support decisionmaking and efficient structuring of dictionary entries. Currently, technologies like TLex and Microsoft Word provide tools that focus on the editing and presentation of dictionary entries, aimed at detailing selected definitions and improving the quality of their presentation. However, language is dynamic and evolves constantly, behaving like a living entity that reflects social, cultural, and technological changes. New words emerge, others fall into disuse, and meanings can change over time. This evolutionary behavior of language presents a significant challenge for traditional lexicography. The proposal of this thesis is to treat the lexicographic corpus as an evolving organic entity, integrating ontologies and folksonomies to manage and adapt to this dynamism. Ontologies provide a hierarchical and organized structure of knowledge, allowing precise representation of relationships between terms. On the other hand, folksonomies, which are collaborative classification systems, allow for more flexible and adaptive analysis of the actual use of language. By leveraging knowledge graphs, it is possible to perform detailed analyses and visualizations that help identify trends, relationships, and changes in language use. This approach not only facilitates the continuous updating and improvement of dictionaries but also enables the provision of more precise and relevant definitions. Tools like word clouds can provide lexicographers with valuable information about definitions and their lexical composition. These tools visualize the frequency of word usage, suggesting which terms are more common and therefore more easily understood by readers. This allows lexicographers to quickly identify which definitions are composed of more frequently used words, facilitating the creation of more accessible and relevant entries. Similarly, if some words within definitions could be subject to some form of censorship, this information can be communicated to the lexicographer, allowing them to make informed decisions about which definitions to include in the dictionary, according to the target audience. By integrating these tools into the lexicographic process, the precision and relevance of definitions are improved, ensuring that the dictionary meets the expectations and needs of its readers.
58

Comunicación Técnica multilingüe: gestión del conocimiento y de recursos lingüísticos para proyectos de traducción.

Cámara de la Fuente, Lidia 20 December 2005 (has links)
Esta tesis pretende aportar soluciones a los problemas de gestión de los recursos lingüísticos (RRLL) dentro de una organización dedicada a la producción de documentación técnica multilingüe (DTM). El problema general de la DTM está vinculada a la infrautilización de los recursos lingüísticos de mayor valor, esto es: diccionarios terminológicos y memorias de traducción. El objetivo de este análisis es diseñar e implementar un sistema de gestión de RRLL y de conocimiento que optimice la gestión de los proyectos de traducción dentro de una empresa dedicada a la producción de DTM, en concreto STAR Servicios Lingüísticos, SL. Para analizar el proceso de gestión y poder dar propuestas de solución se ha adoptado una propuesta metodológica utilizada en la gestión empresarial conocida como auditoría de la información cuyas fases son las siguientes: 1. Implicación en implantar una política de la información por parte de la dirección de la entidad 2. Identificación de necesidades y evaluación de la viabilidad del proyecto 3. Planificación de la auditoría de la información 4. Análisis e interpretación de los datos:·recogida de datos inventario, encuestas, diagramas de flujo ·catálogo de problemas ·catálogo de propuestas 5. Implementación de las propuestasLa aplicación de la auditoría de la información confiere especial relevancia a los RRLL y a sus informaciones asociadas. Desde la perspectiva empresarial los RRLL se entienden como activos lingüísticos y desde la perspectiva profesional de los traductores y gestores se entienden como bases de conocimiento. Tras el análisis e interpretación de los datos se propone una sistematización de la descripción semántica y estructuración lógica de los RRLL para optimizar la recuperación de la información. De la implementación de las propuestas se desarrolla COGNImática, una herramienta que soluciona la infrautilización de los RRLL y que se ha definido como un sistema de tres módulos relacionados entre sí: gestor documental de diccionarios, gestor de proyectos y gestor de corpus paralelos. COGNImática se basa en técnicas de técnicas de documentación recuperación y extracción de la información, y es una herramienta colaborativa. Y esto es así porque es un instrumento para la mejora de la política de la (in)formación empresarial por contribuir a un cambio abocado a compartir, consultar, sumar, unificar, proponer y construir, es decir, una mejora de la gestión del conocimiento y con ello una mejora de las condiciones laborales para los integrantes de la empresa analizada.
59

Ineficacia de los instrumentos de formalización laboral durante el período 2017-2019 por la Superintendencia Nacional de Fiscalización Laboral en Lima Metropolitana

Palomino Cardenas, Silver Nereo, Infante Fajardo, Yelka 18 July 2023 (has links)
El presente proyecto está relacionado con la informalidad laboral, el sistema inspectivo y las mejoras en el proceso de inspección laboral que se ejecuta por parte de la Superintendencia de Fiscalización Laboral. Luego de revisar y ser parte del proceso que realiza SUNAFIL, hemos entendido que se necesita la participación de la ciudadanía de manera activa con la finalidad que contribuyan a tener información geográfica y precisa del nivel de informalidad en los puntos principales de comercio en Lima Metropolitana. Tenemos certeza que el trabajo de campo realizado por los inspectores de trabajo no es suficiente para generar la formalidad laboral, ante ello se plantea la formulación de denuncias del sector formal respecto a su competencia desleal a través de un sistema de fácil acceso y que tengan un nivel amigable a través de la cooperación entre entidades. Por ello el presente trabajo busca implementar un software que desde un nivel de interoperabilidad entre diferentes entidades públicas y privadas puedan facilitar el envío de información para un accionar en tiempo real del sistema inspectivo, y la construcción del software nos basamos en experiencias internacionales que se pueden aplicar a la realidad peruana. Un concepto importante es la co-creación en nuestro proyecto de innovación, que busca incluir actores que coadyuven en alimentar información y el empleo de medios tecnológicos y la interoperabilidad, que repercutirá en obtener resultados como la creación de una base de empresas informales que puedan acceder a la formalidad a través de nuevas formas de incorporación y con ello mejorar el sistema de inspección laboral que actualmente se cuenta en la Superintendencia Nacional de Fiscalización Laboral. Hacer partícipe a la población que conoce de cerca la competencia desleal, que genera un perjuicio a su sistema económico contribuirá a que se determinen medidas que se apliquen para cada sector económico y detectar las falencias que la ciudadanía encuentra para acceder a la formalidad y poder determinar qué medidas adoptar para la mejora del sistema inspectivo laboral. Este trabajo está dividido en cuatro capítulos, donde en el primero desarrollamos el problema y la relevancia y los actores que intervienen, en el segundo las causas del problema y sus efectos que tiene el problema; el tercer capítulo abordamos el tema del desafío de la innovación a partir del problema planteado y esencialmente nuestra propuesta que se resume en un software, como este podría funcionar de forma co creativa e interoperativa de colaboración y en el cuarto y último capítulo realizamos el análisis de desabilidad, factibilidad y viabilidad. / This project is related to labor informality, the inspection system and improvements in the labor inspection process that is carried out by the Superintendence of Labor Inspection. After reviewing and being part of the process carried out by SUNAFIL, we have understood that the active participation of citizens is needed in order to contribute to having geographic and precise information on the level of informality in the main points of commerce in Metropolitan Lima. We are certain that the field work carried out by the labor inspectors is not enough to generate labor formality, in view of this, the formulation of complaints from the formal sector regarding its unfair competition through a system of easy access and that have a friendly level through cooperation between entities. For this reason, the present work seeks to implement a software that from a level of interoperability between different public and private entities can facilitate the sending of information for a real-time action of the inspection system, and the construction of the software is based on international experiences that can be apply to the Peruvian reality. An important concept is co-creation in our innovation project, which seeks to include actors that help feed information and the use of technological means and interoperability, which will have an impact on obtaining results such as the creation of a base of informal companies that can access to formality through new forms of incorporation and thereby improve the labor inspection system that is currently in the National Superintendence of Labor Inspection. Involving the population that is closely familiar with unfair competition, which causes damage to its economic system, will contribute to determining measures that are applied to each economic sector and detect the shortcomings that citizens find to access formality and be able to determine what measures to adopt to improve the labor inspection system. This work is divided into four chapters, where in the first we develop the problem and its relevance and the actors involved, in the second the causes of the problem and its effects that the problem has; In the third chapter we address the issue of the challenge of innovation based on the problem posed and essentially our proposal that is summarized in a software, how it could work in a co-creative and interoperable way of collaboration and in the fourth and last chapter we carry out the analysis of inability, feasibility and feasibility.
60

Recuperación de pasajes multilingües para la búsqueda de respuestas

Gómez Soriano, José Manuel 07 May 2008 (has links)
JAVA Information Retrieval System (JIRS) es un sistema de Recuperación de Información especialmente orientado a tareas de Búsqueda de Respuestas. Los tradicionales motores de búsqueda se basan en las palabras claves de la pregunta para obtener los documentos relevantes a una consulta. JIRS, por el contrario, intenta obtener trozos de texto, es decir pasajes, con mayor probabilidad de contener la respuesta. Para ello realiza una búsqueda basada en los n-gramas de la pregunta -efectuada en lenguaje natural- usando tres posibles modelos. Los modelos de n-gramas desarrollados son independientes del idioma, lo que hace de JIRS un sistema idóneo para trabajar en ambientes multilingües. Por otra parte, JIRS incorpora un potente núcleo que permite una adaptación y escalabilidad sin precedentes en los modernos motores de búsqueda. Desde sus inicios fue diseñado para que fuera una herramienta potente que permitiese adaptarse sin dificultad a muy diferentes funciones. Esto permite ampliar o modificar aspectos de JIRS de forma muy fácil e intuitiva sin que el usuario final tenga que conocer el código desarrollado por otros. Además, permite generar nuevas aplicaciones con una estructura cliente/servidor, distribuida, etc. únicamente modificando el archivo de configuración. Este trabajo presenta el estado del arte de la Recuperación de Información centrándose en la Búsqueda de Respuestas multilingüe, así como una descripción detallada de JIRS junto con sus modelos de búsqueda exponiendo, finalmente, los resultados obtenidos por este sistema en las competiciones del CLEF. / Gómez Soriano, JM. (2007). Recuperación de pasajes multilingües para la búsqueda de respuestas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1930

Page generated in 0.1108 seconds