• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 7
  • 3
  • Tagged with
  • 66
  • 66
  • 45
  • 40
  • 18
  • 17
  • 14
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Caracterización formal y análisis empírico de mecanismos incrementales de búsqueda basados en contexto

Lorenzetti, Carlos M. 18 March 2011 (has links)
LaWeb se ha vuelto un recurso potencialmente infinito de información, transformándose además en una herramienta imprescindible para muchas tareas de la vida diaria. Esto provocó un aumento en la cantidad de información existente en el contexto de los usuarios, que no es tenida en cuenta por los sistemas de recuperación de información actuales. En esta tesis se propone una técnica semisupervisada de recupe-ración de información que ayuda al usuario a recuperar infor-mación relevante para su contexto actual. El objetivo de la misma es contrarrestar la diferencia de vocabulario que pudiera existir entre el conocimiento que tiene el usuario sobre un tema y los documentos relevantes que se encuen-tran en la Web. Esta tesis presenta un método de aprendizaje de nuevos términos asociados a un contexto temático, a través de la identificación de términos que sean buenos descriptores y términos que sean buenos discriminadores del tópico del contexto actual del usuario. Para la evaluación del método propuesto se desarrolló un marco teórico de eva-luación de mecanismos de búsqueda y se implementó una plataforma de evaluación, que además permitió comparar las técnicas desarrolladas en esta tesis con otras técnicas existentes en la literatura. La evidencia experimental muestra que las mejoras alcanzadas son significativas respecto de otros trabajos publicados. Dentro de este marco se desarrolla-ron asimismo nuevas métricas de evaluación que favorecen la exploración de material novedoso y que incorporan una medida de relación semántica entre documentos. Los algorit-mos desarrollados a la largo de esta tesis evolucionan con-sultas de alta calidad, permitiendo recuperar recursos relevan-tes al contexto del usuario, e impactan positivamente en la forma en la que éste interactúa con los recursos que tiene disponibles. / The Web has become a potentially infinite information resour-ce, turning into an essential tool for many daily activities. This resulted in an increase in the amount of information available in users contexts that is not taken into account by current information retrieval systems. This thesis proposes a semisupervised information retrieval technique that helps users to recover context relevant information. The objective of the proposed technique is to reduce the vocabulary gap existing between the knowledge a user has about a specific topic and the relevant documents available in the Web. This thesis presents a method for learning novel terms associated with a thematic context. This is achieved by identifying those terms that are good descriptors and good discriminators of the users current thematic context. In order to evaluate the proposed method, a theoretical framework for the evalua-tion of search mechanisms was developed. This served as a guide for the implementation of an evaluation framework that allowed to compare the techniques proposed in this thesis with other techniques existing in the literature. The experimental evidence indicates that the methods proposed in this thesis present significant improvements over previously published techniques. In addition the evaluation framework was equipped with novel evaluation metrics that favor the exploration of novel material and incorporates a semantic relationship metric between documents. The algorithms developed in this thesis evolve high quality queries, which have the capability of retrieving results that are relevant to the user context. These results have a positive impact on the way users interact with available resources.
22

Implementación de una Red Semántica de Archivos

Muñoz Zolotoochin, Juan Enrique January 2011 (has links)
El almacenamiento de contenido en nuestro computador es ineficaz. Frente al problema de encontrar un cierto contenido en el disco duro estamos obligados a recordar nombres de archivos, extensiones y carpetas, los cuales distan mucho de reflejar el verdadero contenido que hay en cada uno de ellos. Una indexación efectiva no solo debe permitir el uso de metadatos altamente específicos al tipo de contenido que se está almacenando, sino también reducir la ambigüedad de conceptos y explicitar las relaciones entre los elementos indexados. En esta memoria de título se propone un sistema de indexación semántica de archivos basado en RDF, aprovechando la flexibilidad de esta forma de representación de metadatos para construir un índice colaborativo de acceso público. Cada archivo es indexado mediante un identificador que se construye a partir de una función de hashing sobre él mismo, el cual es a la vez la URL donde se despliegan la información del contenido y sus relaciones con otros archivos. Se le da especial énfasis a la accesibilidad de la información, contando con interfaces de usuario gráficas así como programáticas para el despliegue y captura de datos. Durante el desarrollo de esta memoria se encontraron muchos obstáculos, los cuales radican principalmente en la baja adopción de tecnologíias de la Web Semántica sobre las cuales se basa el prototipo implementado. De igual importancia que el sistema de indexación antes mencionado, son los documentos y las herramientas que se desarrollaron en el camino para superar estas dificultades. Se buscó ampliamente que el proyecto realizado sirva como una instancia educativa, no solo para el autor de esta memoria de título, sino para todos quienes se interesen en estas áreas de desarrollo. Todas las herramientas desarrolladas se liberaron de forma abierta bajo licencia MIT.
23

Rediseño del proceso de envío de notificaciones que envía Previred a los usuarios del sitio para mejorar la calidad de la información laboral de Chile

Venegas Heresi, Ignacio Javier January 2015 (has links)
Ingeniero Civil Industrial / El presente trabajo de título atiende un problema que afecta a todo el sistema previsional chileno. Específicamente, a las Instituciones Previsionales, Instituciones Gubernamentales, Recaudadores y Empleadores, pero también a todos los Afiliados. Dicho problema tiene su fuente en la calidad de la información existente en el sistema, lo que genera una desigualdad entre los datos que poseen los Empleadores y las Instituciones, induciendo errores en los pagos de cotizaciones previsionales. Sin embargo, también se presenta solución a los problemas de eficiencia que tiene actualmente PreviRed en los procesos de envío de notificaciones. Por lo tanto, el objetivo principal de esta memoria es rediseñar el proceso de envío de notificaciones a los usuarios del sitio previred.com con el fin de mejorar la calidad de la información previsional de Chile y así reducir los errores en los pagos previsionales por parte de dichos usuarios, reduciendo de esta forma el flujo de rezagos y lagunas en las cotizaciones previsionales. El flujo mensual de rezagos sólo para el sistema de pensiones, asciende a $14.000 millones de pesos, de los cuales $9.900 millones son explicados por los problemas de información. Al considerar que este problema se repite en otras industrias y que se repite con cada período de pago, cualquier inversión que permita una solución permanente a una fracción de los rezagos mensuales queda justificada. Para realizar el diagnóstico de la situación inicial se utilizó el diagrama de Ishikawa, que permitió identificar las causas más relevantes del problema, las que tienen relación con (1) los conocimientos y habilidades de los Empleadores y ejecutores del proceso de envío, (2) las tareas y métodos manuales, que intrínsecamente tienen una mayor tasa de error y (3) la falta de indicadores que permitan identificar, controlar y gestionar la reducción de los errores generados. El rediseño se realizó utilizando el método SIPaC, que permite estructurar una propuesta en 4 fases incrementales: Estandarización; Diseño de la información, Paralelización, y la de Planificación de capacidad. Como consecuencia de este método se definió un único proceso estándar de envío, nuevos reportes de efectividad y la implementación de un motor de notificaciones, capaz de atender a las distintas instituciones publicadoras de información y ofrecer una interfaz amigable al usuario final. Finalmente, se realizó una estimación de costos utilizando el análisis de puntos de función, del que se obtuvo que el desarrollo de la solución que permita implementar el proceso rediseñado costaría alrededor de $30 millones en instalarse en PreviRed utilizando el lenguaje J2EE y $7 millones para su operación mensual.
24

Diseño de propuesta de arquitectura de gestión de datos científicos para el Centro de Investigación Web Intelligence Centre

Maldonado Bravo, Felipe Alejandro January 2016 (has links)
Ingeniero Civil Industrial / El presente trabajo de título busca diseñar una propuesta de arquitectura de gestión de datos de investigación enfocada en el acceso abierto a los datos para el Web Intelligence Centre (WIC, centro perteneciente a la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile), con el fin de prevenir la falta de disponibilidad de datos generados en el centro para trabajos futuros y así evitar el tener que llevar a cabo los experimentos por segunda vez. El primer pilar de la arquitectura son las políticas de gestión de datos científicos. Para su diseño se utilizó una serie de pasos ofrecida por el Data Curation Centre (UK). El primer paso fue realizar una evaluación del estado actual del WIC respecto a la gestión de datos, posterior a ello se efectuó una revisión y comparación de las recomendaciones sobre los contenidos de las políticas de un número de entidades que ha desarrollado la materia en los últimos años. De este ejercicio se extrajeron los contenidos mínimos que debe contener este documento. A continuación, se analizó quiénes serán los encargados de aprobar la propuesta para poder realizar una versión borrador del documento sujeto a cambios, los cuales se vieron reflejados en el diseño de la versión final. El segundo pilar de la arquitectura es la infraestructura tecnológica (TI) que soportará la gestión de los datos. Para esto se realizó un levantamiento de requerimientos con el fin de realizar un benchmark de los repositorios y software especializados en la creación de repositorios científicos existentes. De esta fase se consideró a la plataforma DSpace como la mejor solución para diseñar y crear finalmente la propuesta de repositorio de datos del centro. El tercer y último pilar tiene relación al soporte necesario para realizar la gestión de datos en el centro, para esto se diseñaron guías, documentos y plantillas de documentos. Además se esquematizaron los procesos principales que se desprenden de las políticas diseñadas. Después se llevó a cabo un proceso de validación de la arquitectura creada respecto a los términos técnicos y requisitos para poder ejecutar la gestión buscada. Donde se concluye que la propuesta permitirá realizar una gestión de datos científicos en el Web Intelligence Centre y con esto traer beneficios, que a pesar de no ser directamente cuantificables en contraste a los costos, se verán reflejados en el corto y largo plazo tanto en el funcionamiento interno del centro como en la investigación que se realizará en el futuro, los cuales ayudarán a cumplir los objetivos del centro. También se presentaron propuestas de mejoras a la arquitectura desprendidas de la validación realizada. Por último, se realizó una propuesta relacionada a la gestión del cambio que se deberá llevar a cabo en el centro con el fin de implementar la arquitectura propuesta de manera correcta para poder generar finalmente el valor que se busca.
25

Línea de productos software tramitación de causas judiciales

Portilla Portilla, Rodrigo Alexis January 2013 (has links)
Magíster en Tecnologías de la Información / El proyecto de tesis Línea de Productos Software de Tramitación de Causas Judiciales se enmarca en el contexto laboral de la empresa Amisoft, organización especializada en tecnologías de la información con más de 14 años en el mercado nacional. Durante los últimos años, se ha adjudicado una serie de proyectos en el sector judicial, diseñando e implementando los principales sistemas informáticos de tramitación de causas para el Poder Judicial de Chile y Ministerio de Justicia. Durante el año 2011 la organización decidió capitalizar todo el conocimiento adquirido durante este último tiempo en la creación de un producto propio que implementará las principales actividades de una organización judicial para la tramitación de causas judiciales. Una vez creado el producto, surgieron una serie de inconvenientes, ya que conociendo el negocio y teniendo una experiencia importante en el ámbito, la organización no cuenta con un core definido sobre el cual aplicar el desarrollo diferenciado y particular del producto para cada grupo de clientes pertenecientes al sector judicial. Es así como surgen las líneas de productos software (LPS) que permiten la reutilización sistemática de software similar pero diferenciado por algunas características. El objetivo es sacar el máximo partido de los elementos comunes, y gestionar de una manera eficaz las variaciones. El desarrollo del proyecto de tesis buscar implementar en la organización una línea de productos dentro del dominio de tramitación de causas judiciales, permitiendo contar con una serie de componentes reutilizables y gestionar en forma eficiente la variabilidad de los nuevos productos que son creados para diferentes clientes. Para la creación de la línea de productos se utiliza la metodología de Desarrollo Dirigido por Características (Feature-Driven Development) (1) el cual es un proceso ágil que se basa en construir iteraciones cortas que produzcan incrementos funcionales en el software que los clientes y personas encargadas de la gestión del proyecto puedan ver, analizar y aprobar. Del punto de vista de diseño e implementación se aplica el concepto de combinación de paquetes ( package merge ), propuesta de Laguna y Otros (2) que consiste fundamentalmente en añadir detalles de forma incremental y se define como una relación entre dos paquetes que indica que los contenidos de ambos se combinan. Por último, para extender la trazabilidad hasta los modelos de implementación, se utiliza el concepto de clases parciales en C#. La utilización de mixins o clases parciales fue propuesta originalmente en el lenguaje Flavors (3) y representa una alternativa a la herencia múltiple y una manera de manejar la variabilidad relacionada con aspectos. La intención es mantener la correspondencia uno a uno no sólo entre características y paquetes de diseño sino también con la estructura del código.
26

IR-n: un sistema de recuperación de información basado en pasajes

Llopis, Fernando 06 May 2003 (has links)
No description available.
27

SEMQA: un modelo semántico aplicado a los sistemas de búsqueda de respuestas

Vicedo, Jose-Luis 28 May 2002 (has links)
No description available.
28

Diseño e implementación de un navegador de conceptos enlazados en el dominio de Ciencias de la computación

León Shimabukuro, Alexis Enrique 13 February 2019 (has links)
En la actualidad, la World Wide Web es una de las fuentes principales de información, siendo un espacio que se encuentra en constante crecimiento, puesto que cada vez mas personas cuentan con acceso a internet. Sin embargo, esto genera múltiples problemas entre los que podemos mencionar como la duplicidad de información, que dificulta la búsqueda de información relevante a los usuarios, quienes utilizan herramientas como motores de búsqueda para esta tarea. Ante esta situación surgió la Web Semántica, extensión de la Web tradicional, en donde la información es comprensible tanto para las personas como para las máquinas. Para publicar información en este espacio existen un conjunto de prácticas conocido como Linked Data, que permiten que la información se estructure según su significado y relación entre los datos que la componen, lo que facilita la labor de búsqueda y permite el descubrimiento de nueva información, generando valor a usuarios como investigadores, que constantemente se encuentran en búsqueda de conocimientos. Toda la información en constante crecimiento contenida en la Web Semántica puede ser accedida simplemente mediante navegadores convencionales; sin embargo, esta se encuentra en su mayoría en formato RDF, por lo que el usuario común no podrá comprender su contenido. Para que la información pueda ser de utilidad, se necesitan conocimientos en conceptos como RDF y XML, lo que limita gran parte del potencial actual de la Web Semántica a los especialistas en dicha área. El presente proyecto implementa un navegador de Linked Data, mediante el cual los usuarios pueden consultar información en el dominio de las ciencias de la computación, dicha información es obtenida de la Web Semántica, permitiendo el descubrimiento de información relevante, contribuyendo así a la expansión de dicha tecnología, que busca unificar y estructurar toda la información contenida en la web. Para la elaboración del proyecto, se implementó un módulo de procesamiento de consultas, en donde el usuario ingresa una cadena de búsqueda, al igual que en un motor de búsqueda tradicional y mediante esta cadena se obtienen posibles propiedades, que son enviadas a manera de consultas en lenguaje SPARQL, a partir de cuyos resultados se construyen estructuras RDFs que muestran los conceptos y la información presentada en una interfaz gráfica para que el usuario pueda visualizarla y navegar a través de dichos conceptos, permitiendo el descubrimiento de información relevante. / Tesis
29

Stochastic language models for music information retrieval

Pérez-Sancho, Carlos 20 July 2009 (has links)
No description available.
30

Búsqueda de respuestas en dominios restringidos: aplicación sobre el dominio agrícola

Vila Rodríguez, Katia 06 October 2010 (has links)
No description available.

Page generated in 0.0819 seconds