• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 7
  • 3
  • Tagged with
  • 66
  • 66
  • 45
  • 40
  • 18
  • 17
  • 14
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Evaluación de sistemas de recuperación de información

Naldi Ríos, Carina January 1997 (has links)
No description available.
2

Implementación de un lenguaje de consultas para bases de datos de grafos utilizando estructuras de datos comprimidas

Lehmann Meléndez, Nicolás Emilio January 2014 (has links)
Ingeniero Civil en Computación / En la actualidad existe una clara tendencia por buscar nuevos modelos de bases de datos que se adecuen de mejor manera a las necesidades modernas. Dentro de las alternativas que cuentan con popularidad se encuentran las denominadas bases de datos de grafos, que han adquirido fuerza en conjunto a la reciente revolución de la Web y sus tecnologías asociadas. La adopción de este modelo aún requiere de un amplio estudio, pues los grafos suponen una complejidad intrínseca que debe ser considerada al momento de diseñar una implementación. Dos desafíos fundamentales que se presentan son los volúmenes de información que deben ser manejados, junto con la elección de un buen lenguaje de consultas que equilibre el nivel de expresividad con su complejidad de evaluación. En este trabajo se considera un lenguaje de consultas ampliamente estudiado que permite realizar consultas de navegación a partir de expresiones regulares. Así mismo, se presenta un algoritmo de evaluación práctico para resolver estas consultas de manera eficiente. Adicionalmente se utiliza una representación para bases de datos de grafos que explota las características de las estructuras de datos sucintas para mantener grandes volúmenes de información en memoria principal. El trabajo presenta además una implementación de la propuesta considerando la extensibilidad y orden del código, con el fin de proveer una herramienta de utilidad para nuevas investigaciones. El desarrollo está dividido en dos componentes. Por un lado se proporciona una biblioteca con la implementación de las estructuras sucintas involucradas y por otro un sistema simple de gestión de base de datos que permite la evaluación de consultas del lenguaje escogido. Adicionalmente, y con el objetivo de comprobar el desempeño de la propuesta, se presenta una evaluación experimental de la implementación, realizando una comparación con algunas alternativas actuales para bases de datos de grafos y obteniendo resultados favorables. Finalmente se termina el trabajo señalando las conclusiones obtenidas del análisis experimental realizado.
3

Publicación en línea de contenidos con RDF Site Summary (RSS)

Calabrese, Emiliano José January 2003 (has links)
No description available.
4

Uso de técnicas IR para la generación dinámica de web sites

Brohme, Javier E., Hernández, Viviana January 1997 (has links)
No description available.
5

Definición y validación de procesos de gestión de seguridad de la información para la Empresa Amisoft

Molina Ortega, Andrés Sebastián January 2015 (has links)
Magíster en Tecnologías de la Información / Este proyecto toma de base el proceso que ha desarrollado Amisoft para la gestión de los proyectos y tiene el nombre de Amisoft Process Framework (APF). El APF se encuentra dividido en tres actividades: Gestión, Ingeniería y Soporte; las cuales han servido para desarrollar software de alta calidad pero no están involucrados en la seguridad de la información que la empresa maneja día a día. Por esta razón fue necesario definir una nueva actividad que tenga que ver con seguridad de la información para poder corregir esta debilidad. El objetivo de esta tesis es definir y validar los procesos necesarios para la gestión de la seguridad de la información en la empresa Amisoft. Estos procesos en una siguiente etapa serán implementados para que la seguridad de la información pueda ser gestionada y la empresa alcance la certificación ISO/IEC 27001:2013. Amisoft tiene experiencia en el manejo de normas puesto que obtuvo la certificación en la norma ISO 9001:2008 de calidad junto la evaluación CMMI nivel 2. Por esta razón se decide implementar un proceso de seguridad de la información usando como referencia la norma ISO/IEC 27001:2013 para seguridad de la información. Con esta premisa el trabajo para esta tesis consiste en tomar de la norma indicada junto con los controles descritos en la norma ISO/IEC 27002:2013 todos los procesos que Amisoft considere necesarios para proteger la información de su negocio. A continuación se evaluará el grado de cumplimiento de los procesos teniendo 3 posibles opciones: implementado, parcialmente implementado y no implementado. A los procesos implementados se les dejará intactos o se les agregará pequeñas modificaciones para que cumplan con la norma, los que se encuentran parcialmente implementados se los complementará con la información faltante y los no implementados se diseñará completamente el proceso. Una vez finalizada la definición se realiza un proceso de verificación y de validación con la ayuda de un experto externo a la empresa que indica las observaciones y no conformidades encontradas en los procesos. Todos los objetivos de esta tesis se cumplieron logrando así tener una APF que actualmente posee los procesos para que la información de Amisoft sea manejada de una manera segura. Con esto se puede empezar la implementación en un proyecto piloto generando mejoras al proceso de ser necesario y finalmente se logre la implementación en toda la empresa.
6

Análisis estructural orientado a su aplicación en Ciencias de la información y en Ingeniería

Xamena, Eduardo 10 February 2015 (has links)
El objetivo de esta tesis es el desarrollo de métodos de particionamiento y análisis estructural de modelos matemáticos y estructuras de datos provenientes de distintas áreas del conocimiento. Los requerimientos que se desean cumplir son los siguientes: I. Manejo más eficiente de los modelos y las estructuras y II. Uso más extensivo de la información contenida en ellos. Como punto de partida para el análisis estructural de los diversos casos estudiados, se utilizó el Método Directo Extendido (MDE). Además, uno de los algoritmos sobre grafos que comprenden las distintas etapas de su funcionamiento fue utilizado sobre la estructura de un directorio web. Con respecto a los temas abarcados en la investigación, esta tesis está concentrada en dos grandes campos de aplicación: I. Particionamiento estructural de modelos matemáticos provenientes de la Ingeniería Química, y II. Modelos estructurales que se utilizan como base para las Ciencias de la Información. En la primera sección se describe el trabajo realizado sobre distintos modelos matemáticos de Ingeniería de Sistemas de Proceso. Luego, la investigación fue enfocada en el tratamiento estructural de grandes volúmenes de datos que son utilizados para el cálculo de medidas de similitud semántica. De acuerdo con las dos áreas de aplicación mencionadas, se enumeran las contribuciones del trabajo realizado: - En Ingeniería de Sistemas de Proceso se perfeccionó el MDE, que genera un particionamiento de la estructura del sistema de ecuaciones. Con ello se hizo posible no sólo aumentar la cantidad de variables determinables en los modelos matemáticos implementados, sino también reducir la complejidad de cálculo. Esto último se logró con un mejor ordenamiento de las ecuaciones, poniendo énfasis en la selección guiada de ecuaciones con características deseables, como por ejemplo un bajo grado de no linealidad. Tanto para problemas de simulación como de optimización, este algoritmo puede hacer más sencilla la tarea de su resolución y disminuir la cantidad de información inicial requerida en los modelos correspondientes. - En Ciencias de la Información, fueron elaborados distintos modelos de propagación de relevancia sobre un directorio conocido de sitios de internet. Algunos se obtuvieron mediante la utilización de operaciones sobre matrices ralas de gran porte. Los otros fueron generados con un algoritmo sobre grafos que lleva a cabo la detección de componentes fuertemente conexas en un grafo dirigido. Este algoritmo está implementado en una de las etapas del MDE, descripto anteriormente. Además, estos modelos fueron validados experimentalmente en base a criterios estadísticos. Los mismos pueden aumentar la precisión en la determinación de valores de similitud semántica entre documentos, lo cual puede apreciarse en pruebas estadísticas llevadas a cabo a lo largo de la investigación. De acuerdo a los resultados obtenidos, su información sobre propagación de relevancia puede ser útil para diferentes propósitos en Ciencias de la Información. / The objective of this thesis is the development of structural partitioning and analysis methods for mathematical models and data structures that come up in different knowledge areas. The desired requirements to be fulfilled were: I. more efficient handling of the structures and models and II. wider usage of the information. As a starting point for the structural analysis of the various case studies, the Extended Direct Method (EDM) was employed. Besides, one of its graph-based algorithms that take part in some of EDM stages was applied to web-directory structures. Regarding the research topics involved, this work concentrated in two big application fields: I. Structural partitioning of mathematical models from Chemical Engineering, and II. Structural models used as a basis in Information Sciences. In the first place, different mathematical models of Process Systems Engineering were analysed. Then, the research was focused on structural treatment of big data stores that are useful for semantic similarity measurements calculation. According to these application areas, the contributions of this thesis are the following: - In Process Systems Engineering the EDM algorithm, which generates a partitioning of the equations system structure, was improved. This improvement made it possible not only to augment the amount of determinable variables in the implemented mathematical models, but also to reduce the calculation complexity. The latter was achieved by means of a better equation ordering with emphasis on the guided selection of equations with desirable properties, e.g. a low degree of non-linearity. For both simulation and optimization problems, the improved algorithm can make their resolution task easier and diminish the amount of required initial information about the corresponding models. - In Information Sciences various relevance propagation models over a known Web sites Directory were developed. Some of these models were obtained by using matrix operations on broad-range sparse matrices. The other ones were generated with a graph algorithm that performs the strongly connected components detection over a directed graph. This algorithm is implemented in one of the stages of the EDM, described previously. Besides, they were empirically proved, based on statistical criteria. The developed models can raise accuracy on determining semantic similarity between documents. They had an average accuracy of 65% in the implemented tests. According to this result, their information about relevance propagation could be useful for different purposes in Information Sciences.
7

Diseño e Implementación de un Metabuscador de Párrafos para la Recuperación de Documentos Similares en la Web

Bravo Márquez, Felipe January 2010 (has links)
La recuperación de documentos similares a un documento dado en la Web, es un problema no resuelto por los motores de búsqueda tradicionales. Esto se debe, a que los motores de búsqueda están pensados para resolver necesidades de información de usuarios basadas en conjuntos pequeños de términos clave. En este trabajo, se define el problema de recuperación de documentos similares como el proceso en que un usuario ingresa un párrafo a un sistema de información y éste le retorna los documentos con mayor similitud a éste en la Web. Los documentos recuperados son rankeados por medio de una métrica de similitud estimada por el sistema. La resolución del problema, podría ser utilizado en contextos como la detección de plagio, el análisis de impacto de documentos en la Web y la recuperación de ideas similares. Se propone una metodología basada en modelos de lenguaje generativos y metabuscadores. Los modelos de lenguaje son utilizados como generadores de consultas aleatorizadas sobre el texto del documento entregado, donde se propone un modelo que extrae términos relevantes sin reposición llamado Modelo de Lenguaje Hipergeométrico. El conjunto de consultas generado intenta ser una representación de la información relevante del documento. Posteriormente, cada consulta es enviada como entrada a una lista de motores de búsqueda de la Web. Para luego combinar los resultados de cada búsqueda en una única respuesta. A este proceso se le conoce como metabúsqueda. Finalmente, los resultados son ordenados por relevancia y presentados al usuario. Para estimar la relevancia entre el documento de entrada y los documentos encontrados se propone una función de scoring basada en la ley de Zipf, la cual considera los rankings locales de aparición de cada resultado, la confianza en los motores de búsqueda utilizados y la cantidad instancias de búsqueda en que éstos son recuperados. Se definen los requerimientos de software junto a un análisis preliminar de las características de éste donde se define una arquitectura basada en capas. La capa de aplicación de la herramienta es diseñada acorde a una arquitectura orientada a servicios, de manera que pueda interoperar con otros sistemas. La herramienta se diseña en base al paradigma de orientación a objetos y el uso patrones de diseño conocidos. Esto se realiza para permitir la mantenibilidad y extensibilidad del modelo al uso de diversas estrategias para la generación de consultas, rankeo de resultados y para permitir al metabuscador hacer uso de diversos motores de búsqueda externos. La capa de interfaz se diseña como una interfaz Web donde el usuario ingresa el párrafo dentro de un cuadro de texto, permitiéndole a éste además, evaluar la calidad de los resultados entregados. Los resultados son registrados dentro de la capa de datos, para poder evaluar continuamente la calidad predictiva del modelo al adaptar sus parámetros al conocimiento entregado por los usuarios. Una vez implementada la herramienta, se realiza una serie de experimentos basados en métricas de recuperación de información para evaluar la calidad del modelo en la herramienta implementada. Se obtiene una precisión de 0.87 para los primeros resultados recuperados al evaluar la relevancia de 2400 documentos recuperados sobre una muestra de 160 párrafos entregados como entrada al sistema. Además, se valida que la combinación de varios motores de búsquedas mejora la precisión del modelo, al ampliar la cobertura de la Web. Finalmente, se evalúan la calidad del diseño y la implementación del software. Para el caso del diseño de software la evaluación se realiza en base a métricas de orientación a objetos, y para el caso de la implementación se evalúan la funcionalidad y el rendimiento en base a casos de pruebas. En ambos casos, los resultados obtenidos comprueban la extensibilidad y mantenibilidad del diseño junto al cumplimiento de los requerimientos funcionales y no funcionales establecidos.
8

Diseño y puesta en marcha de base de datos financieras para el Centro de finanzas

Vildoso Castillo, Felipe Esteban January 2014 (has links)
Ingeniero Civil Industrial / Uno de los elementos primordiales en la investigación financiera, sin importar el propósito que se tenga, es la necesidad de contar con datos confiables y reales que permitan llevarlas a cabo. Sin embargo, hoy en día es difícil acceder a los datos que forman parte del mercado financiero, más aún, el tiempo que se utiliza en su recolección no es despreciable, haciendo finalmente que se pierda la motivación por el tema. Es por ello que nace la necesidad de crear sistemas automatizados que capturen datos financieros relevantes. Esta memoria se centra en la creación de un sistema de información que se encargue de capturar y proveer datos financieros relevante para los profesores, investigadores y alumnos que participan en el Centro de Finanzas del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. Específicamente, mediante el diseño de una Aplicación Web en donde a través de un software se recopilan los datos necesarios y luego se muestran en la plataforma. Para esto se busca hacer un levantamiento de requerimientos, el diseño de los sistemas de información apropiados y la generación de un software que permita recopilar los datos. Hay que tener en consideración, que algunos datos no pueden ser almacenados directamente al no estar en una pagina web, como lo son los de la SBIF, por lo que se almacenan las URLs de los archivos en que están los datos. La metodología utilizada consiste en la recolección de los datos que necesitan o podrían necesitar en el futuro los miembros del Centro de Finanzas. Luego, se diseñan y construyen los sistemas de información apropiados, los que consideran varios filtros al momento de insertar datos para asegurar la calidad de estos. Por último se documenta el sistema permitiendo que a futuro pueda ser extendido a otras necesidades, por lo que su diseño e implementación tendrá que estar pensado para la escalabilidad que se pueda presentar. El proceso de extracción de datos se lleva a cabo, mediante la utilización de Crawlers, conformados de dos tipos de objetos, triggers y jobs. Los triggers se encargan de realizar las tareas que se necesitan cuantas veces sea necesario, puede ser en forma periódica. Y los jobs, de ejecutar cualquier tarea que se desee recalendarizar, en este caso los crawlers que recopilan datos financieros. En caso de que estos fallen, se vuelve a intentar en otro momento, y, si es que vuelve a fallar, se notifica al administrador vía correo electrónico, que cierta tarea no se ha ejecutado exitosamente. Una vez capturados los datos, el sistema sigue funcionando continuamente recopilando y actualizando nuevos datos del día a día para mantener la base de datos siempre actual, ayudando a que el sistema cumpla con su fin principal de mantener informados a todos los interesados. A la fecha de esta memoria, contabilizando data histórica más la extraída, se tienen más de 500 mil datos. Finalmente, gracias a la implementación de este sistema se logra tener acceso rápido a datos financieros importantes, cumpliéndose con los objetivos de este proyecto.
9

Análisis e implementación de sistema de memoria distribuido para el proceso de circuitos integrados

Ulriksen Palma, Nicolás January 2014 (has links)
Ingeniero Civil Eléctrico / En la actualidad las personas ocupan una gran cantidad de dispositivos electrónicos, como computadores, teléfonos, relojes, refrigeradores e incluso automóviles, que contienen chips o circuitos integrados cada vez más complejos y con una mayor cantidad de componentes, lo cual involucra que las herramientas de diseño, implementación y construcción tengan que ir evolucionando de manera tal, que puedan estar al día con la creciente demanda de los circuitos integrados. En la presente Memoria, realizada en la empresa Synopsys⃝R , se analizan distintos tipos de sistemas de memoria distribuida, y su implementación en el software PUMA⃝R , desarrollado por la misma empresa. Este software procesa principalmente los archivos de máscaras de los circuitos integrados, para convertirlos en un formato legible para las máquinas que los fabrican. El procesamiento de estos archivos se realiza simultáneamente en muchas máquinas (llamado cluster), que ocupan discos duros como medio de almacenamiento. Dado que este tipo de almacenamiento produce en el proceso cuellos de botella , es el objetivo de este trabajo modificarlo por un sistema de memoria RAM compartida por todas las máquinas, para aumentar así la eficiencia del software PUMA⃝R . El sistema de almacenamiento se implementa con una librería propia de Synopsys⃝R , que tiene la capacidad de leer y escribir datos entre máquinas. Mejorando el rendimiento, en el proceso de escritura y lectura, de archivos que van de los cientos de megabytes, hasta los cientos de gigabytes en el caso de procesos comerciales. De las pruebas realizadas, se logra en el mejor de los casos, una reducción en el tiempo de ejecución de hasta un 10 %, realizadas bajo condiciones normales de procesamiento del cluster, y sin ningún agente externo perturbando la muestra. Finalmente, hay que indicar que se pudo mostrar que, si los archivos de entrada no poseen un determinado tamaño mínimo, los tiempos de ejecución aumentan y no se aprovecha la modificación del sistema de almacenamiento.
10

Diseño e implementación de una plataforma de estudio de calidad de experiencia, en streaming de video

Carrera Troncoso, Jaime Andrés January 2015 (has links)
Ingeniero Civil en Computación / El auge de la distribución de contenido multimedia en los últimos años ha revolucionado la industria de las telecomunicaciones, produciendo consumidores más exigentes, llevando al límite a la actual infraestructura de redes y generando una percepción transversal de calidad sobre los servicios. Como consecuencia de ésto, la tecnología ha debido adaptarse rápidamente a los nuevos requerimientos, generando más y mejores opciones para crear aplicaciones que brinden la calidad solicitada. Ante la demanda de los consumidores por contar con un servicio óptimo, nace la necesidad de medir y comparar la calidad del servicio entregada, y contrastarla con experiencia del usuario al momento de que éste reciba la información, para responder adecuadamente ante los requerimientos planteados. El presente tema de memoria tiene por objetivo implementar una plataforma de código abierto que facilite la medición de ambos parámetros de manera conjunta. La Calidad de Servicio, que hace referencia a las capacidades técnicas al momento de transmitir datos por una red y la Calidad de Experiencia, que establece el cómo percibe subjetivamente el usuario el contenido. La solución fue diseñada en base a diferentes componentes. Primero, se diseñó un subsistema que simula los distintos tipos de redes de conexión, a los que un usuario puede estar conectado al momento de consumir contenido multimedia. Luego, se desarrolló un sistema para que un usuario pueda solicitar la creación de contenido multimedia, simulando los escenarios de conexión recién descritos. Finalmente, se estableció una metodología en donde el usuario pueda evaluar su experiencia al momento de consumir el material en cuestión. Como resultado se obtiene una plataforma web capaz de generar contenido multimedia en demanda, que logra medir la opinión del usuario en base a los parámetros que éste asigna. La plataforma implementada permite que a futuro se realicen diferentes estudios de manera estandarizada y con posibles mejoras técnicas que ayuden el desarrollo de las pruebas implementadas. Al ser una plataforma de código abierto, se permite que cualquier desarrollador o empresa enriquezca las funciones del actual sistema.

Page generated in 0.095 seconds