Spelling suggestions: "subject:"recuperación dde información"" "subject:"recuperación dde conformación""
51 |
Diseño e implementación de un módulo de gestión de repuestos críticos para una flota de equipos de transporteLópez Sánchez, Gonzalo Patricio January 2016 (has links)
Ingeniero Civil Mecánico / Lo que motiva la realización de este trabajo es la necesidad de generar una plataforma que facilite la gestión del mantenimiento de cualquier organización cuyo principal activo sea la maquinaria de transporte. Esta plataforma debe ser más versátil, económica, amigable y orientada al usuario, que las soluciones actualmente presentes en el mercado.
En la actualidad existen algunas soluciones que permiten gestionar activos en términos de orden y costos, y otras que admiten realizar análisis más complejos ligados a temas de confiabilidad, mas no existe una solución que trate ambos temas simultáneamente de forma simple. Además, dichas aplicaciones suelen tener un elevado costo económico y presentan un desafío en su implementación. Con este trabajo da respuesta a la necesidad de generar una herramienta que permita abordar ambas temáticas adecuadamente y acercar las metodologías modernas del mantenimiento a un universo de usuarios amplio, diverso y dinámico.
Junto con la conceptualización general de esta plataforma, este trabajo profundiza en el tema del manejo de insumos y bodega, generando un asistente virtual que permite al usuario definir la mejor política de gestión de repuestos, considerando la condición de operación de los activos, entregándole acceso a diversos modelos de estimación de demanda. El usuario es guiado mediante una serie de preguntas al modelo que mejor se ajuste a su necesidad.
Los modelos escogidos fueron implementados y probados con ayuda del software MATLAB®, y sus resultados fueron contrastados con información real proveniente de una flota de camiones de transporte de mineral no metálico. Se realizaron modificaciones a los modelos recopilados de modo de incorporar un cierto grado de incertidumbre a los parámetros definidos como constantes.
En el trabajo se describen conceptualmente las características de la plataforma informática que permiten manejar dicha información, junto con llevar un control centralizado de las labores relacionadas con el mantenimiento: su optimización, requerimientos de bodega, tiempos de respuesta, historiales, entre otras tareas. Durante el trabajo se utilizan diversas técnicas de priorización y selección las cuales son aplicadas a la base de datos, de forma tal de obtener repuestos cuyos parámetros se ajustan a los requerimientos de cada modelo.
La aplicación generada permite escoger entre distintos modelos de predicción de requerimientos de repuestos, lo que para posibilita establecer buenas alternativas para la planificación de la adquisición y manejo de inventarios, niveles críticos de reposición, entre otros. Adicionalmente, se desarrolla un manual de usuario de la aplicación.
Su desarrollo considera que pueda ser a futuro parte de una plataforma integral de gestión de activos físicos y la incorporación de nuevos modelos a su programación.
|
52 |
Autoevaluación de bibliotecas universitarias: modelo de medición y diagnóstico a partir de datos estadísticosFushimi, Marcela Susana January 2003 (has links) (PDF)
Objetivo general
El presente trabajo tiene como objetivo desarrollar una herramienta de apoyo para la autoevaluación de las bibliotecas universitarias argentinas, basada en la utilización de datos estadísticos generales acerca de población, recursos, productos y servicios de las bibliotecas.
Esta herramienta permite calcular y obtener, a partir de los datos ingresados, indicadores de rendimiento que proporcionan información útil para realizar un diagnóstico y autoevaluación de una biblioteca universitaria.
Objetivos específicos
- Desarrollar un formulario estadístico normalizado y automatizado para el relevamiento de datos uniformes.
- Estudiar, seleccionar, aplicar y desarrollar indicadores de desempeño y rendimiento de experiencias existentes en otros países y de los datos disponibles en nuestro ámbito.
- Aplicar el formulario desarrollado al estudio de casos concretos.
- Identificar los datos básicos necesarios y la forma en que deben recopilarlos para aplicarlos al cálculo de los indicadores seleccionados.
|
53 |
La teoría del agotamiento del derecho de distribución y su aplicación en un entorno digitalPlana Perillán, Javiera Beatriz January 2014 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / La teoría del agotamiento del derecho permite el acceso masivo al público de las obras protegidas por el derecho de autor. Con la llegada de internet, la implementación de esta teoría, así como sus efectos tradicionales se ponen en duda, por lo que resulta necesario revisar los alcances y condiciones de aplicación del agotamiento, con el fin de poder determinar si es factible o no adaptarla al entorno digital. En la siguiente investigación abordamos este conflicto, revisando a fondo tanto la institucionalidad que envuelve al agotamiento, como los principales obstáculos que surgen con el cambio a un entorno digital. Finalmente, argumentaremos que es posible implementar una teoría del agotamiento en internet, pese a las dificultades
|
54 |
Sistema de búsqueda y comparación de documentosCastro Hidalgo, Miguel, Viale López, Javier Alberto 19 March 2013 (has links)
El presente trabajo se orienta a la investigación de cómo realizar análisis automático de texto por computadora y sobre métodos de búsqueda. Los resultados de esta investigación serán implementados en un sistema de búsqueda de documentos para la Universidad Peruana de Ciencias Aplicadas. Los proyectos de tesis y tesis sustentadas serán los documentos a analizar. La necesidad y actualidad del trabajo se puede sustentar desde dos puntos de vista: el empresarial y el educativo. En primer lugar, las empresas no cuentan con un sistema que les permita explotar la información contenida en documentos que se generan en sus diferentes procesos del negocio: publicaciones, artículos, Internet y libros. Desde el punto de vista educativo es importante realizar una investigación para crear una nueva herramienta que facilite la búsqueda de documentos, ya que esto servirá como desarrollo educativo y profesional. El objetivo principal del presente trabajo es desarrollar un sistema para facilitar la búsqueda de información inmersa en diversos documentos, realizando análisis de contenido de textos, con lo cual mejorará la administración de los documentos. En la primera parte de este documento se presentará los métodos del análisis automático del contenido textual, los de búsqueda que se realizan en Internet, y de otros métodos complementarios que ayudarán al desarrollo del sistema; luego se presenta el análisis de requerimientos, el modelado del negocio, el modelado del sistema y por último los experimentos desarrollados para determinar los métodos que permitan comparar documentos. Dentro de los resultados esperados más relevantes se pueden encontrar los siguientes: El sistema podrá ser una herramienta que permita explotar información que se encuentra en una variedad de documentos. El sistema permitirá un mayor control por parte de los profesores y alumnos en los temas de tesis desarrollados y por desarrollarse, ya que servirá para realizar consultas y búsquedas. El sistema será capaz de convertir el texto a una notación matemática que permita su posterior utilización en las comparaciones y búsquedas. / Tesis
|
55 |
Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computaciónLeón Shimabukuro, Alexis Enrique 13 February 2019 (has links)
En la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante.
|
56 |
On the Mono- and Cross-Language Detection of Text Re-Use and PlagiarismBarrón Cedeño, Luis Alberto 08 June 2012 (has links)
Barrón Cedeño, LA. (2012). On the Mono- and Cross-Language Detection of Text Re-Use and Plagiarism [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16012
|
57 |
Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingüesRebaza Valdivia, Carlos Alberto 17 October 2024 (has links)
Los diccionarios han sido, durante siglos, fundamentales para el entendimiento y la
preservación de las lenguas. Fueron también la última palabra para resolver muchas
discusiones, actuando como autoridades definitivas en cuestiones de significado y uso
correcto de las palabras. La importancia de los diccionarios radica en su capacidad para
proporcionar a los lectores una referencia confiable y precisa que facilita la
comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es
una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso
implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y
sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada
nueva edición de un diccionario requiere un esfuerzo considerable para incorporar
cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de
definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa
asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un
mundo en constante evolución.
La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta
numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario,
el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores
retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento
cuidadoso para asegurar que las definiciones sean precisas y relevantes para el
contexto en el que se utilizarán. Este proceso implica no solo identificar todos los
posibles significados de una palabra, sino también determinar cuál de estos es más
adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse
de que las definiciones sean claras y comprensibles, evitando ambigüedades y
proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este
desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona
constantemente, haciendo imprescindible la utilización de herramientas avanzadas que
apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del
diccionario.
Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se
enfocan en la edición y presentación de las entradas del diccionario, orientadas a
detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin
embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como
un ente vivo en constante evolución que refleja cambios sociales, culturales y
tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden
transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un
desafío significativo para la lexicografía tradicional.
La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que
evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este
dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del
conocimiento, permitiendo representar de manera precisa las relaciones entre los
términos. Por otro lado, las folksonomías, que son sistemas de clasificación
colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y
adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis
detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios
en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua
de los diccionarios, sino que también permite ofrecer definiciones más precisas y
relevantes.
Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al
lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas
herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos
son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto
permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por
palabras de uso más frecuente, facilitando la creación de entradas más accesibles y
relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran
estar sujetas a algún tipo de censura, esta información puede ser comunicada al
lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en
el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso
lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el
diccionario cumpla con las expectativas y necesidades de sus lectores. / Dictionaries have been fundamental for the understanding and preservation of
languages for centuries. They have also been the final authority to resolve many
discussions, acting as definitive authorities on questions of meaning and correct use of
words. The importance of dictionaries lies in their ability to provide readers with a reliable
and precise reference that facilitates effective communication and learning. However,
creating a dictionary is an arduous and meticulous task that can take decades to
complete. This process involves the exhaustive collection of lexical data, detailed
analysis of words and their multiple meanings, and verification of their use in different
contexts. Each new edition of a dictionary requires considerable effort to incorporate
changes in language, including the addition of new words, modification of existing
definitions, and elimination of obsolete terms. This intense labor ensures that dictionaries
remain valuable and relevant resources in a constantly evolving world.
Lexicography, the discipline dedicated to the creation and study of dictionaries, faces
numerous challenges in its practice. Beyond designing the structure of the dictionary, the
lexicographer must deal with the complexity of language, where one of the greatest
challenges is polysemy. Words with multiple meanings require careful treatment to
ensure that definitions are precise and relevant to the context in which they will be used.
This process involves not only identifying all possible meanings of a word but also
determining which of these is most appropriate for the target reader of the dictionary.
Additionally, the lexicographer must ensure that definitions are clear and understandable,
avoiding ambiguities and providing usage examples that adequately illustrate each
meaning. This challenge is amplified in a dynamic linguistic environment where language
constantly evolves, making it essential to use advanced tools that support decisionmaking and efficient structuring of dictionary entries.
Currently, technologies like TLex and Microsoft Word provide tools that focus on the
editing and presentation of dictionary entries, aimed at detailing selected definitions and
improving the quality of their presentation. However, language is dynamic and evolves
constantly, behaving like a living entity that reflects social, cultural, and technological
changes. New words emerge, others fall into disuse, and meanings can change over
time. This evolutionary behavior of language presents a significant challenge for
traditional lexicography.
The proposal of this thesis is to treat the lexicographic corpus as an evolving organic
entity, integrating ontologies and folksonomies to manage and adapt to this dynamism.
Ontologies provide a hierarchical and organized structure of knowledge, allowing precise
representation of relationships between terms. On the other hand, folksonomies, which
are collaborative classification systems, allow for more flexible and adaptive analysis of
the actual use of language. By leveraging knowledge graphs, it is possible to perform
detailed analyses and visualizations that help identify trends, relationships, and changes
in language use. This approach not only facilitates the continuous updating and
improvement of dictionaries but also enables the provision of more precise and relevant
definitions.
Tools like word clouds can provide lexicographers with valuable information about
definitions and their lexical composition. These tools visualize the frequency of word
usage, suggesting which terms are more common and therefore more easily understood
by readers. This allows lexicographers to quickly identify which definitions are composed
of more frequently used words, facilitating the creation of more accessible and relevant
entries. Similarly, if some words within definitions could be subject to some form of
censorship, this information can be communicated to the lexicographer, allowing them to
make informed decisions about which definitions to include in the dictionary, according
to the target audience. By integrating these tools into the lexicographic process, the
precision and relevance of definitions are improved, ensuring that the dictionary meets
the expectations and needs of its readers.
|
58 |
Comunicación Técnica multilingüe: gestión del conocimiento y de recursos lingüísticos para proyectos de traducción.Cámara de la Fuente, Lidia 20 December 2005 (has links)
Esta tesis pretende aportar soluciones a los problemas de gestión de los recursos lingüísticos (RRLL) dentro de una organización dedicada a la producción de documentación técnica multilingüe (DTM). El problema general de la DTM está vinculada a la infrautilización de los recursos lingüísticos de mayor valor, esto es: diccionarios terminológicos y memorias de traducción. El objetivo de este análisis es diseñar e implementar un sistema de gestión de RRLL y de conocimiento que optimice la gestión de los proyectos de traducción dentro de una empresa dedicada a la producción de DTM, en concreto STAR Servicios Lingüísticos, SL. Para analizar el proceso de gestión y poder dar propuestas de solución se ha adoptado una propuesta metodológica utilizada en la gestión empresarial conocida como auditoría de la información cuyas fases son las siguientes: 1. Implicación en implantar una política de la información por parte de la dirección de la entidad 2. Identificación de necesidades y evaluación de la viabilidad del proyecto 3. Planificación de la auditoría de la información 4. Análisis e interpretación de los datos:·recogida de datos inventario, encuestas, diagramas de flujo ·catálogo de problemas ·catálogo de propuestas 5. Implementación de las propuestasLa aplicación de la auditoría de la información confiere especial relevancia a los RRLL y a sus informaciones asociadas. Desde la perspectiva empresarial los RRLL se entienden como activos lingüísticos y desde la perspectiva profesional de los traductores y gestores se entienden como bases de conocimiento. Tras el análisis e interpretación de los datos se propone una sistematización de la descripción semántica y estructuración lógica de los RRLL para optimizar la recuperación de la información. De la implementación de las propuestas se desarrolla COGNImática, una herramienta que soluciona la infrautilización de los RRLL y que se ha definido como un sistema de tres módulos relacionados entre sí: gestor documental de diccionarios, gestor de proyectos y gestor de corpus paralelos. COGNImática se basa en técnicas de técnicas de documentación recuperación y extracción de la información, y es una herramienta colaborativa. Y esto es así porque es un instrumento para la mejora de la política de la (in)formación empresarial por contribuir a un cambio abocado a compartir, consultar, sumar, unificar, proponer y construir, es decir, una mejora de la gestión del conocimiento y con ello una mejora de las condiciones laborales para los integrantes de la empresa analizada.
|
59 |
Ineficacia de los instrumentos de formalización laboral durante el período 2017-2019 por la Superintendencia Nacional de Fiscalización Laboral en Lima MetropolitanaPalomino Cardenas, Silver Nereo, Infante Fajardo, Yelka 18 July 2023 (has links)
El presente proyecto está relacionado con la informalidad laboral, el sistema inspectivo y
las mejoras en el proceso de inspección laboral que se ejecuta por parte de la
Superintendencia de Fiscalización Laboral.
Luego de revisar y ser parte del proceso que realiza SUNAFIL, hemos entendido que se
necesita la participación de la ciudadanía de manera activa con la finalidad que contribuyan
a tener información geográfica y precisa del nivel de informalidad en los puntos principales
de comercio en Lima Metropolitana. Tenemos certeza que el trabajo de campo realizado
por los inspectores de trabajo no es suficiente para generar la formalidad laboral, ante ello
se plantea la formulación de denuncias del sector formal respecto a su competencia desleal
a través de un sistema de fácil acceso y que tengan un nivel amigable a través de la
cooperación entre entidades.
Por ello el presente trabajo busca implementar un software que desde un nivel de
interoperabilidad entre diferentes entidades públicas y privadas puedan facilitar el envío de
información para un accionar en tiempo real del sistema inspectivo, y la construcción del
software nos basamos en experiencias internacionales que se pueden aplicar a la realidad
peruana.
Un concepto importante es la co-creación en nuestro proyecto de innovación, que busca
incluir actores que coadyuven en alimentar información y el empleo de medios tecnológicos
y la interoperabilidad, que repercutirá en obtener resultados como la creación de una base
de empresas informales que puedan acceder a la formalidad a través de nuevas formas de
incorporación y con ello mejorar el sistema de inspección laboral que actualmente se cuenta
en la Superintendencia Nacional de Fiscalización Laboral.
Hacer partícipe a la población que conoce de cerca la competencia desleal, que genera un
perjuicio a su sistema económico contribuirá a que se determinen medidas que se apliquen
para cada sector económico y detectar las falencias que la ciudadanía encuentra para
acceder a la formalidad y poder determinar qué medidas adoptar para la mejora del sistema
inspectivo laboral.
Este trabajo está dividido en cuatro capítulos, donde en el primero desarrollamos el
problema y la relevancia y los actores que intervienen, en el segundo las causas del
problema y sus efectos que tiene el problema; el tercer capítulo abordamos el tema del
desafío de la innovación a partir del problema planteado y esencialmente nuestra propuesta
que se resume en un software, como este podría funcionar de forma co creativa e
interoperativa de colaboración y en el cuarto y último capítulo realizamos el análisis de
desabilidad, factibilidad y viabilidad. / This project is related to labor informality, the inspection system and improvements
in the labor inspection process that is carried out by the Superintendence of Labor
Inspection.
After reviewing and being part of the process carried out by SUNAFIL, we have
understood that the active participation of citizens is needed in order to contribute to
having geographic and precise information on the level of informality in the main
points of commerce in Metropolitan Lima. We are certain that the field work carried
out by the labor inspectors is not enough to generate labor formality, in view of this,
the formulation of complaints from the formal sector regarding its unfair competition
through a system of easy access and that have a friendly level through cooperation
between entities.
For this reason, the present work seeks to implement a software that from a level of
interoperability between different public and private entities can facilitate the sending
of information for a real-time action of the inspection system, and the construction of
the software is based on international experiences that can be apply to the Peruvian
reality.
An important concept is co-creation in our innovation project, which seeks to include
actors that help feed information and the use of technological means and
interoperability, which will have an impact on obtaining results such as the creation
of a base of informal companies that can access to formality through new forms of
incorporation and thereby improve the labor inspection system that is currently in the
National Superintendence of Labor Inspection.
Involving the population that is closely familiar with unfair competition, which causes
damage to its economic system, will contribute to determining measures that are
applied to each economic sector and detect the shortcomings that citizens find to
access formality and be able to determine what measures to adopt to improve the
labor inspection system.
This work is divided into four chapters, where in the first we develop the problem and
its relevance and the actors involved, in the second the causes of the problem and
its effects that the problem has; In the third chapter we address the issue of the
challenge of innovation based on the problem posed and essentially our proposal
that is summarized in a software, how it could work in a co-creative and interoperable
way of collaboration and in the fourth and last chapter we carry out the analysis of
inability, feasibility and feasibility.
|
60 |
Recuperación de pasajes multilingües para la búsqueda de respuestasGómez Soriano, José Manuel 07 May 2008 (has links)
JAVA Information Retrieval System (JIRS) es un sistema de Recuperación de Información especialmente orientado a tareas de Búsqueda de Respuestas. Los tradicionales motores de búsqueda se basan en las palabras claves de la pregunta para obtener los documentos relevantes a una consulta. JIRS, por el contrario, intenta obtener trozos de texto, es decir pasajes, con mayor probabilidad de contener la respuesta. Para ello realiza una búsqueda basada en los n-gramas de la pregunta -efectuada en lenguaje natural- usando tres posibles modelos. Los modelos de n-gramas desarrollados son independientes del idioma, lo que hace de JIRS un sistema idóneo para trabajar en ambientes multilingües.
Por otra parte, JIRS incorpora un potente núcleo que permite una adaptación y escalabilidad sin precedentes en los modernos motores de búsqueda. Desde sus inicios fue diseñado para que fuera una herramienta potente que permitiese adaptarse sin dificultad a muy diferentes funciones. Esto permite ampliar o modificar aspectos de JIRS de forma muy fácil e intuitiva sin que el usuario final tenga que conocer el código desarrollado por otros. Además, permite generar nuevas aplicaciones con una estructura cliente/servidor, distribuida, etc. únicamente modificando el archivo de configuración.
Este trabajo presenta el estado del arte de la Recuperación de Información centrándose en la Búsqueda de Respuestas multilingüe, así como una descripción detallada de JIRS junto con sus modelos de búsqueda exponiendo, finalmente, los resultados obtenidos por este sistema en las competiciones del CLEF. / Gómez Soriano, JM. (2007). Recuperación de pasajes multilingües para la búsqueda de respuestas [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1930
|
Page generated in 0.1119 seconds