• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 1
  • Tagged with
  • 85
  • 85
  • 83
  • 79
  • 77
  • 34
  • 33
  • 29
  • 24
  • 22
  • 20
  • 19
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Definición y validación de procesos de gestión de seguridad de la información para la Empresa Amisoft

Molina Ortega, Andrés Sebastián January 2015 (has links)
Magíster en Tecnologías de la Información / Este proyecto toma de base el proceso que ha desarrollado Amisoft para la gestión de los proyectos y tiene el nombre de Amisoft Process Framework (APF). El APF se encuentra dividido en tres actividades: Gestión, Ingeniería y Soporte; las cuales han servido para desarrollar software de alta calidad pero no están involucrados en la seguridad de la información que la empresa maneja día a día. Por esta razón fue necesario definir una nueva actividad que tenga que ver con seguridad de la información para poder corregir esta debilidad. El objetivo de esta tesis es definir y validar los procesos necesarios para la gestión de la seguridad de la información en la empresa Amisoft. Estos procesos en una siguiente etapa serán implementados para que la seguridad de la información pueda ser gestionada y la empresa alcance la certificación ISO/IEC 27001:2013. Amisoft tiene experiencia en el manejo de normas puesto que obtuvo la certificación en la norma ISO 9001:2008 de calidad junto la evaluación CMMI nivel 2. Por esta razón se decide implementar un proceso de seguridad de la información usando como referencia la norma ISO/IEC 27001:2013 para seguridad de la información. Con esta premisa el trabajo para esta tesis consiste en tomar de la norma indicada junto con los controles descritos en la norma ISO/IEC 27002:2013 todos los procesos que Amisoft considere necesarios para proteger la información de su negocio. A continuación se evaluará el grado de cumplimiento de los procesos teniendo 3 posibles opciones: implementado, parcialmente implementado y no implementado. A los procesos implementados se les dejará intactos o se les agregará pequeñas modificaciones para que cumplan con la norma, los que se encuentran parcialmente implementados se los complementará con la información faltante y los no implementados se diseñará completamente el proceso. Una vez finalizada la definición se realiza un proceso de verificación y de validación con la ayuda de un experto externo a la empresa que indica las observaciones y no conformidades encontradas en los procesos. Todos los objetivos de esta tesis se cumplieron logrando así tener una APF que actualmente posee los procesos para que la información de Amisoft sea manejada de una manera segura. Con esto se puede empezar la implementación en un proyecto piloto generando mejoras al proceso de ser necesario y finalmente se logre la implementación en toda la empresa.
2

Diseño y puesta en marcha de base de datos financieras para el Centro de finanzas

Vildoso Castillo, Felipe Esteban January 2014 (has links)
Ingeniero Civil Industrial / Uno de los elementos primordiales en la investigación financiera, sin importar el propósito que se tenga, es la necesidad de contar con datos confiables y reales que permitan llevarlas a cabo. Sin embargo, hoy en día es difícil acceder a los datos que forman parte del mercado financiero, más aún, el tiempo que se utiliza en su recolección no es despreciable, haciendo finalmente que se pierda la motivación por el tema. Es por ello que nace la necesidad de crear sistemas automatizados que capturen datos financieros relevantes. Esta memoria se centra en la creación de un sistema de información que se encargue de capturar y proveer datos financieros relevante para los profesores, investigadores y alumnos que participan en el Centro de Finanzas del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. Específicamente, mediante el diseño de una Aplicación Web en donde a través de un software se recopilan los datos necesarios y luego se muestran en la plataforma. Para esto se busca hacer un levantamiento de requerimientos, el diseño de los sistemas de información apropiados y la generación de un software que permita recopilar los datos. Hay que tener en consideración, que algunos datos no pueden ser almacenados directamente al no estar en una pagina web, como lo son los de la SBIF, por lo que se almacenan las URLs de los archivos en que están los datos. La metodología utilizada consiste en la recolección de los datos que necesitan o podrían necesitar en el futuro los miembros del Centro de Finanzas. Luego, se diseñan y construyen los sistemas de información apropiados, los que consideran varios filtros al momento de insertar datos para asegurar la calidad de estos. Por último se documenta el sistema permitiendo que a futuro pueda ser extendido a otras necesidades, por lo que su diseño e implementación tendrá que estar pensado para la escalabilidad que se pueda presentar. El proceso de extracción de datos se lleva a cabo, mediante la utilización de Crawlers, conformados de dos tipos de objetos, triggers y jobs. Los triggers se encargan de realizar las tareas que se necesitan cuantas veces sea necesario, puede ser en forma periódica. Y los jobs, de ejecutar cualquier tarea que se desee recalendarizar, en este caso los crawlers que recopilan datos financieros. En caso de que estos fallen, se vuelve a intentar en otro momento, y, si es que vuelve a fallar, se notifica al administrador vía correo electrónico, que cierta tarea no se ha ejecutado exitosamente. Una vez capturados los datos, el sistema sigue funcionando continuamente recopilando y actualizando nuevos datos del día a día para mantener la base de datos siempre actual, ayudando a que el sistema cumpla con su fin principal de mantener informados a todos los interesados. A la fecha de esta memoria, contabilizando data histórica más la extraída, se tienen más de 500 mil datos. Finalmente, gracias a la implementación de este sistema se logra tener acceso rápido a datos financieros importantes, cumpliéndose con los objetivos de este proyecto.
3

Análisis e implementación de sistema de memoria distribuido para el proceso de circuitos integrados

Ulriksen Palma, Nicolás January 2014 (has links)
Ingeniero Civil Eléctrico / En la actualidad las personas ocupan una gran cantidad de dispositivos electrónicos, como computadores, teléfonos, relojes, refrigeradores e incluso automóviles, que contienen chips o circuitos integrados cada vez más complejos y con una mayor cantidad de componentes, lo cual involucra que las herramientas de diseño, implementación y construcción tengan que ir evolucionando de manera tal, que puedan estar al día con la creciente demanda de los circuitos integrados. En la presente Memoria, realizada en la empresa Synopsys⃝R , se analizan distintos tipos de sistemas de memoria distribuida, y su implementación en el software PUMA⃝R , desarrollado por la misma empresa. Este software procesa principalmente los archivos de máscaras de los circuitos integrados, para convertirlos en un formato legible para las máquinas que los fabrican. El procesamiento de estos archivos se realiza simultáneamente en muchas máquinas (llamado cluster), que ocupan discos duros como medio de almacenamiento. Dado que este tipo de almacenamiento produce en el proceso cuellos de botella , es el objetivo de este trabajo modificarlo por un sistema de memoria RAM compartida por todas las máquinas, para aumentar así la eficiencia del software PUMA⃝R . El sistema de almacenamiento se implementa con una librería propia de Synopsys⃝R , que tiene la capacidad de leer y escribir datos entre máquinas. Mejorando el rendimiento, en el proceso de escritura y lectura, de archivos que van de los cientos de megabytes, hasta los cientos de gigabytes en el caso de procesos comerciales. De las pruebas realizadas, se logra en el mejor de los casos, una reducción en el tiempo de ejecución de hasta un 10 %, realizadas bajo condiciones normales de procesamiento del cluster, y sin ningún agente externo perturbando la muestra. Finalmente, hay que indicar que se pudo mostrar que, si los archivos de entrada no poseen un determinado tamaño mínimo, los tiempos de ejecución aumentan y no se aprovecha la modificación del sistema de almacenamiento.
4

Desarrollo de una herramienta para la anotación semántica automática de documentos pdf basado en ontologías

Coronado Altamirano, Gustavo 10 August 2017 (has links)
Actualmente, Internet es una de las fuentes más accesibles y utilizadas para buscar información sobre determinado tema, a través de la cual las personas pueden conectarse a una gran colección de recursos, servicios y contenidos. En ese sentido, el uso de motores de búsqueda es indispensable para poder encontrar contenido específico y relevante para el usuario, es decir, información precisa y alineada con el tema de su interés. Sin embargo, los buscadores pueden presentar dificultades para brindar al usuario la información deseada. Estas dificultades se presentan por motivos tales como las características propias del lenguaje natural como la polisemia, sinonimia y ambigüedad; así, también, por el desconocimiento de los temas que son de interés para el usuario. Otra de las causas que dificultan la recuperación de información relevante es que la búsqueda de resultados se realiza de manera sintáctica, esto es, buscando en los documentos la coincidencia exacta de los términos ingresados en la cadena de búsqueda. Del mismo modo, otra razón importante es que los formatos e interfaces de contenido se presentan en formatos comprensibles solo por las personas y no por un computador. Ante esto, el presente proyecto propone una alternativa de solución de forma tal que los documentos contengan información adicional que describa los conceptos y entidades principales del contenido. Esta información adicional se añadirá de manera automática a los documentos mediante anotaciones semánticas en base a un dominio de conocimiento que sea de interés para el usuario. De esta manera, se pretende apoyar el concepto de Web semántica cuya propuesta es clasificar, estructurar y anotar los recursos con semántica explícita para que puedan ser procesados por sistemas inteligentes. / Tesis
5

Propuesta y Desarrollo de un Sistema de Recuperación de la Información Basado en Reglas de Negocios y Perfiles del Usuario

Bonilla Dávila, Diego José January 2010 (has links)
No autorizado por el autor para ser publicada a texto completo / Los Sistemas de Información tradicionales generan muchas incertidumbres al minuto de realizar búsquedas en un ambiente de negocio. Esto es producto que la principal características de dicha información es que la componen documentos que poseen un diccionario de palabras pequeño, acotado al negocio y de un tamaño reducido, que apunta a entregar una información específica. En esta tesis abordamos el diseño y desarrollo de un buscador que utiliza las variables relevantes del negocio para pesar los documentos que recupera. Con este proyecto se logró obtener un Sistema de Recuperación de la Información que valoriza los documentos por las variables de las reglas de negocio y por variables del usuario del Sistema, diseñado en un sistema parametrizable, permitiendo la adaptación a distintos negocios y distintos tipos de documentos. Las pruebas de usuario comprueban que el buscador posee un rendimiento similar a otros al momento de recuperar documentos relevantes, pero utilizando variables del documento propios del negocio. Este logro es fundamental, ya que no sólo sabemos que los resultados poseen contenidos relevantes para el usuario, sino que también poseen una relevancia en las operaciones que la empresa realiza.
6

Gestión documental del Departamento de Administración Documentaria de la Universidad de Lima

Periche Vega, Daniel Alfonso January 2016 (has links)
Realiza un análisis del Departamento de Administración Documentaria (DAD) de la Universidad de Lima para ello se hará uso de la norma NTP-ISO/TR 15489-2 (2005) que permite conocer si se cumple con los requisitos establecidos para los procesos archivísticos. Analiza dos gestores documentales mediante una tabla de comparación basado en lo propuesto por Raquel Gómez-Díaz, para determinar cuál es el más óptimo para gestionar las imágenes digitalizadas y facilitar el proceso de descripción. Concluye que los procesos archivísticos en el DAD son acordes a la norma empleada, sin embargo no se cuenta con directrices que reflejen lo realizado en la práctica. El análisis de los gestores documentales sugiere la implementación del software Athento para agilizar el proceso de descripción documental y facilitar las búsquedas de los documentos físicos y digitales. / Trabajo de suficiencia profesional
7

Implementación de una Red Semántica de Archivos

Muñoz Zolotoochin, Juan Enrique January 2011 (has links)
El almacenamiento de contenido en nuestro computador es ineficaz. Frente al problema de encontrar un cierto contenido en el disco duro estamos obligados a recordar nombres de archivos, extensiones y carpetas, los cuales distan mucho de reflejar el verdadero contenido que hay en cada uno de ellos. Una indexación efectiva no solo debe permitir el uso de metadatos altamente específicos al tipo de contenido que se está almacenando, sino también reducir la ambigüedad de conceptos y explicitar las relaciones entre los elementos indexados. En esta memoria de título se propone un sistema de indexación semántica de archivos basado en RDF, aprovechando la flexibilidad de esta forma de representación de metadatos para construir un índice colaborativo de acceso público. Cada archivo es indexado mediante un identificador que se construye a partir de una función de hashing sobre él mismo, el cual es a la vez la URL donde se despliegan la información del contenido y sus relaciones con otros archivos. Se le da especial énfasis a la accesibilidad de la información, contando con interfaces de usuario gráficas así como programáticas para el despliegue y captura de datos. Durante el desarrollo de esta memoria se encontraron muchos obstáculos, los cuales radican principalmente en la baja adopción de tecnologíias de la Web Semántica sobre las cuales se basa el prototipo implementado. De igual importancia que el sistema de indexación antes mencionado, son los documentos y las herramientas que se desarrollaron en el camino para superar estas dificultades. Se buscó ampliamente que el proyecto realizado sirva como una instancia educativa, no solo para el autor de esta memoria de título, sino para todos quienes se interesen en estas áreas de desarrollo. Todas las herramientas desarrolladas se liberaron de forma abierta bajo licencia MIT.
8

Diseño e Implementación de un Metabuscador de Párrafos para la Recuperación de Documentos Similares en la Web

Bravo Márquez, Felipe January 2010 (has links)
La recuperación de documentos similares a un documento dado en la Web, es un problema no resuelto por los motores de búsqueda tradicionales. Esto se debe, a que los motores de búsqueda están pensados para resolver necesidades de información de usuarios basadas en conjuntos pequeños de términos clave. En este trabajo, se define el problema de recuperación de documentos similares como el proceso en que un usuario ingresa un párrafo a un sistema de información y éste le retorna los documentos con mayor similitud a éste en la Web. Los documentos recuperados son rankeados por medio de una métrica de similitud estimada por el sistema. La resolución del problema, podría ser utilizado en contextos como la detección de plagio, el análisis de impacto de documentos en la Web y la recuperación de ideas similares. Se propone una metodología basada en modelos de lenguaje generativos y metabuscadores. Los modelos de lenguaje son utilizados como generadores de consultas aleatorizadas sobre el texto del documento entregado, donde se propone un modelo que extrae términos relevantes sin reposición llamado Modelo de Lenguaje Hipergeométrico. El conjunto de consultas generado intenta ser una representación de la información relevante del documento. Posteriormente, cada consulta es enviada como entrada a una lista de motores de búsqueda de la Web. Para luego combinar los resultados de cada búsqueda en una única respuesta. A este proceso se le conoce como metabúsqueda. Finalmente, los resultados son ordenados por relevancia y presentados al usuario. Para estimar la relevancia entre el documento de entrada y los documentos encontrados se propone una función de scoring basada en la ley de Zipf, la cual considera los rankings locales de aparición de cada resultado, la confianza en los motores de búsqueda utilizados y la cantidad instancias de búsqueda en que éstos son recuperados. Se definen los requerimientos de software junto a un análisis preliminar de las características de éste donde se define una arquitectura basada en capas. La capa de aplicación de la herramienta es diseñada acorde a una arquitectura orientada a servicios, de manera que pueda interoperar con otros sistemas. La herramienta se diseña en base al paradigma de orientación a objetos y el uso patrones de diseño conocidos. Esto se realiza para permitir la mantenibilidad y extensibilidad del modelo al uso de diversas estrategias para la generación de consultas, rankeo de resultados y para permitir al metabuscador hacer uso de diversos motores de búsqueda externos. La capa de interfaz se diseña como una interfaz Web donde el usuario ingresa el párrafo dentro de un cuadro de texto, permitiéndole a éste además, evaluar la calidad de los resultados entregados. Los resultados son registrados dentro de la capa de datos, para poder evaluar continuamente la calidad predictiva del modelo al adaptar sus parámetros al conocimiento entregado por los usuarios. Una vez implementada la herramienta, se realiza una serie de experimentos basados en métricas de recuperación de información para evaluar la calidad del modelo en la herramienta implementada. Se obtiene una precisión de 0.87 para los primeros resultados recuperados al evaluar la relevancia de 2400 documentos recuperados sobre una muestra de 160 párrafos entregados como entrada al sistema. Además, se valida que la combinación de varios motores de búsquedas mejora la precisión del modelo, al ampliar la cobertura de la Web. Finalmente, se evalúan la calidad del diseño y la implementación del software. Para el caso del diseño de software la evaluación se realiza en base a métricas de orientación a objetos, y para el caso de la implementación se evalúan la funcionalidad y el rendimiento en base a casos de pruebas. En ambos casos, los resultados obtenidos comprueban la extensibilidad y mantenibilidad del diseño junto al cumplimiento de los requerimientos funcionales y no funcionales establecidos.
9

Rediseño del proceso de envío de notificaciones que envía Previred a los usuarios del sitio para mejorar la calidad de la información laboral de Chile

Venegas Heresi, Ignacio Javier January 2015 (has links)
Ingeniero Civil Industrial / El presente trabajo de título atiende un problema que afecta a todo el sistema previsional chileno. Específicamente, a las Instituciones Previsionales, Instituciones Gubernamentales, Recaudadores y Empleadores, pero también a todos los Afiliados. Dicho problema tiene su fuente en la calidad de la información existente en el sistema, lo que genera una desigualdad entre los datos que poseen los Empleadores y las Instituciones, induciendo errores en los pagos de cotizaciones previsionales. Sin embargo, también se presenta solución a los problemas de eficiencia que tiene actualmente PreviRed en los procesos de envío de notificaciones. Por lo tanto, el objetivo principal de esta memoria es rediseñar el proceso de envío de notificaciones a los usuarios del sitio previred.com con el fin de mejorar la calidad de la información previsional de Chile y así reducir los errores en los pagos previsionales por parte de dichos usuarios, reduciendo de esta forma el flujo de rezagos y lagunas en las cotizaciones previsionales. El flujo mensual de rezagos sólo para el sistema de pensiones, asciende a $14.000 millones de pesos, de los cuales $9.900 millones son explicados por los problemas de información. Al considerar que este problema se repite en otras industrias y que se repite con cada período de pago, cualquier inversión que permita una solución permanente a una fracción de los rezagos mensuales queda justificada. Para realizar el diagnóstico de la situación inicial se utilizó el diagrama de Ishikawa, que permitió identificar las causas más relevantes del problema, las que tienen relación con (1) los conocimientos y habilidades de los Empleadores y ejecutores del proceso de envío, (2) las tareas y métodos manuales, que intrínsecamente tienen una mayor tasa de error y (3) la falta de indicadores que permitan identificar, controlar y gestionar la reducción de los errores generados. El rediseño se realizó utilizando el método SIPaC, que permite estructurar una propuesta en 4 fases incrementales: Estandarización; Diseño de la información, Paralelización, y la de Planificación de capacidad. Como consecuencia de este método se definió un único proceso estándar de envío, nuevos reportes de efectividad y la implementación de un motor de notificaciones, capaz de atender a las distintas instituciones publicadoras de información y ofrecer una interfaz amigable al usuario final. Finalmente, se realizó una estimación de costos utilizando el análisis de puntos de función, del que se obtuvo que el desarrollo de la solución que permita implementar el proceso rediseñado costaría alrededor de $30 millones en instalarse en PreviRed utilizando el lenguaje J2EE y $7 millones para su operación mensual.
10

Diseño de propuesta de arquitectura de gestión de datos científicos para el Centro de Investigación Web Intelligence Centre

Maldonado Bravo, Felipe Alejandro January 2016 (has links)
Ingeniero Civil Industrial / El presente trabajo de título busca diseñar una propuesta de arquitectura de gestión de datos de investigación enfocada en el acceso abierto a los datos para el Web Intelligence Centre (WIC, centro perteneciente a la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile), con el fin de prevenir la falta de disponibilidad de datos generados en el centro para trabajos futuros y así evitar el tener que llevar a cabo los experimentos por segunda vez. El primer pilar de la arquitectura son las políticas de gestión de datos científicos. Para su diseño se utilizó una serie de pasos ofrecida por el Data Curation Centre (UK). El primer paso fue realizar una evaluación del estado actual del WIC respecto a la gestión de datos, posterior a ello se efectuó una revisión y comparación de las recomendaciones sobre los contenidos de las políticas de un número de entidades que ha desarrollado la materia en los últimos años. De este ejercicio se extrajeron los contenidos mínimos que debe contener este documento. A continuación, se analizó quiénes serán los encargados de aprobar la propuesta para poder realizar una versión borrador del documento sujeto a cambios, los cuales se vieron reflejados en el diseño de la versión final. El segundo pilar de la arquitectura es la infraestructura tecnológica (TI) que soportará la gestión de los datos. Para esto se realizó un levantamiento de requerimientos con el fin de realizar un benchmark de los repositorios y software especializados en la creación de repositorios científicos existentes. De esta fase se consideró a la plataforma DSpace como la mejor solución para diseñar y crear finalmente la propuesta de repositorio de datos del centro. El tercer y último pilar tiene relación al soporte necesario para realizar la gestión de datos en el centro, para esto se diseñaron guías, documentos y plantillas de documentos. Además se esquematizaron los procesos principales que se desprenden de las políticas diseñadas. Después se llevó a cabo un proceso de validación de la arquitectura creada respecto a los términos técnicos y requisitos para poder ejecutar la gestión buscada. Donde se concluye que la propuesta permitirá realizar una gestión de datos científicos en el Web Intelligence Centre y con esto traer beneficios, que a pesar de no ser directamente cuantificables en contraste a los costos, se verán reflejados en el corto y largo plazo tanto en el funcionamiento interno del centro como en la investigación que se realizará en el futuro, los cuales ayudarán a cumplir los objetivos del centro. También se presentaron propuestas de mejoras a la arquitectura desprendidas de la validación realizada. Por último, se realizó una propuesta relacionada a la gestión del cambio que se deberá llevar a cabo en el centro con el fin de implementar la arquitectura propuesta de manera correcta para poder generar finalmente el valor que se busca.

Page generated in 0.1478 seconds