• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 93
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1603
  • 521
  • 488
  • 379
  • 369
  • 369
  • 369
  • 369
  • 333
  • 313
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Conversión de la Base de Datos del Sistema de Cartera en el BBVA Banco BHIF

Cofré Catalán, Carlos Alberto January 2011 (has links)
El objetivo general del presente trabajo de título es compartir la experiencia real de un proyecto de conversión de bases de datos dentro de una entidad y organización bancaria, en un esquema de procesamiento de datos basado en computadores centrales mainframe IBM y con un administrador de base datos DB2. El proyecto se desarrolló en la entidad financiera BBVA banco BHIF en el año 2001. Para tal efecto se realizó el análisis, construcción, pruebas de sistema, pruebas de usuario, puesta en producción y seguimiento post-producción. Se determinó el uso de una metodología de desarrollo de software y una metodología de conversión de datos. El objetivo del proyecto era asegurar la conversión del 100% de la información para dar continuidad operacional al producto-negocio de Cobranza de Letras y Pagarés. De tal forma de garantizar un impacto mínimo en los servicios entregados a los clientes del banco y a los procedimientos realizados por los usuarios internos del banco. El resultado final fue el término exitoso del proyecto logrando realizar la conversión de la base de datos en ambiente real de producción y explotación de sistemas. Se alcanzó en primer término el objetivo de convertir la totalidad de registros de la base de datos a la nueva plataforma. En segundo lugar no se impactaron las actividades de negocio de los usuarios internos de las sucursales y fue trasparente para los clientes del banco. Las conclusiones más relevantes de esta experiencia son que los conocimientos adquiridos durante la carrera permiten enfrentar el desarrollo de proyectos de gran complejidad técnica, facilitando el aprendizaje de nuevas tecnologías para resolver los problemas que surgen en los proyectos informáticos. Otro aspecto relevante de esta experiencia es el de formar equipos de trabajo y establecer dinámicas de colaboración con profesionales extranjeros.
262

Arboles de Sufijo Comprimidos para Textos Altamente Repetitivos

Abeliuk Kimelman, Andrés Jonathan January 2012 (has links)
Ingeniero Civil en Computación / El árbol de sufijos es una de las estructuras más importantes que se han creado para el manejo de cadenas de caracteres. Esta estructura permite encontrar eficientemente las ocurrencias de un patrón, en tiempo proporcional al largo del patrón. Adicionalmente soporta operaciones para resolver problemas complejos sobre una secuencia. Esta estructura tiene muchas aplicaciones en variadas áreas de la investigación , destacándose en la bioinformática, donde los recientes avances tecnológicos han permitido recolectar grandes colecciones de secuencias de ADN. La implementación clásica se vuelve impracticable para grandes volúmenes de información dado que ocupan demasiado espacio, que siempre muchas veces mayor que el texto mismo. Luego, no pueden ser almacenados en memoria principal, lo que en la práctica significa un aumento importante del tiempo de respuesta. Este problema es la principal motivación por la cual se buscan nuevas representaciones comprimidas de esta estructura, dando lugar a los árboles de sufijos comprimidos. Estos contienen la misma información que los árboles de sufijos pero ocupan un espacio considerablemente menor. Existen variadas propuestas teóricas para representar un árbol de sufijos comprimido, que ofrecen espacios y tiempos diferentes. En la práctica, dos estructuras destacan por sobre las demás. La primera fue propuesta por Sadakane e implementada por Välimäki et al. Esta estructura soporta la mayoría de las operaciones de navegación en tiempo constante, pero en la práctica requiere entre 25 y 35 bits por símbolo. La segunda fue propuesta por Fischer et al. e implementada por Cánovas, incorporando variantes y nuevas ideas para todas las estructuras que componen el árbol de sufijos comprimido propuesto por ellos. Una de estas variantes resulta ser superior a la implementación de Sadakane tanto en espacio como en tiempo, utilizando alrededor de 8 a 12 bits por símbolo. Dado que secuencias de ADN relacionadas son altamente similares, por ejemplo dos genomas humanos son muy parecidos, las colecciones pueden ser tratadas como un gran texto que contiene cadenas altamente similares. En este trabajo se propone e implementa una nueva variante del árbol de sufijos comprimido de Fischer et al, optimizada para textos altamente repetitivos. Se reemplazan y/o modifican cada una de las estructuras que componen el árbol por nuevas que presentan mayor compresión en textos repetitivos. El resultado más importante consiste en crear una nueva estructura inspirada en una técnica de compresión basada en gramáticas, aplicable al árbol de sufijos comprimido, que con poco espacio extra acelera considerablemente las operaciones sobre el árbol. Finalmente, la variante se compara experimentalmente sobre textos altamente repetitivos y resulta ser superior a la implementación de Cánovas, tanto en tiempo como en espacio, ocupando entre 3 a 6 bits por símbolo. / Este trabajo ha sido parcialmente financiado por el Instituto Milenio de Dinámica Celular y Biotecnología (ICDB) y el proyecto Fondecyt 1-080019
263

Estructuras Comprimidas para Árboles de Sufijos

Cánovas Barroso, Rodrigo Antonio January 2010 (has links)
No description available.
264

Auto-Índice de Texto Basado en LZ77

Kreft Carreño, Sebastián Andrés January 2010 (has links)
No description available.
265

Estructuras de datos sucintas para recuperación de documentos

Valenzuela Serra, Daniel Alejandro January 2013 (has links)
Magíster en Ciencias, Mención Computación / La recuperación de documentos consiste en, dada una colección de documentos y un patrón de consulta, obtener los documentos más relevantes para la consulta. Cuando los documentos están disponibles con anterioridad a las consultas, es posible construir un índice que permita, al momento de realizar las consultas, obtener documentos relevantes en tiempo razonable. Contar con índices que resuelvan un problema como éste es fundamental en áreas como recuperación de la información, minería de datos y bioinformática, entre otros. Cuando el texto que se indexa es lenguaje natural, la solución paradigmática corresponde al índice invertido. Sin embargo, los problemas de recuperación de documentos emergen también en escenarios en que el texto y los patrones de consulta pueden ser secuencias generales de caracteres, como lenguajes orientales, bases de datos multimedia, secuencias genómicas, etc. En estos escenarios los índices invertidos clásicos no se aplican con el mismo éxito. Si bien existen soluciones que requieren espacio lineal en este escenario de texto general, el espacio que utilizan es un problema importante: estas soluciones pueden utilizar más de 20 veces el espacio de la colección. Esta tesis presenta nuevos algoritmos y estructuras de datos para resolver algunos pro- blemas fundamentales para recuperación de documentos en colecciones de texto general, en espacio reducido. Más específicamente, se ofrecen nuevas soluciones al problema de document listing con frecuencias, y recuperación de los top-k documentos. Como subproducto, se de- sarrolló un nuevo esquema de compresión para bitmaps repetitivos que puede ser de interés por sí mismo. También se presentan implementaciones de las nuevas propuestas, y de trabajos relaciona- dos. Estudiamos nuestros algoritmos desde un punto de vista práctico y los comparamos con el estado del arte. Nuestros experimentos muestran que nuestras soluciones para document listing reducen el espacio de la mejor solución existente en un 40%, con un impacto mínimo en los tiempos de consulta. Para recuperación de los top-k documentos, también se redujo el espacio de la mejor solución existente en un 40% en la práctica, manteniendo los tiempos de consulta. Así mismo, mejoramos el tiempo de esta solución hasta en un factor de 100, a expensas de usar un bit extra por carácter. Nuestras soluciones son capaces de retornar los top-10 a top-100 documentos en el orden de milisegundos. Nuestras nuevas soluciones dominan la mayor parte del mapa espacio-tiempo, apuntando a ser el estándar contra el cual comparar la investigación futura.
266

Simulación y análisis de desempeño de la red LTE para infraestructura de medición avanzada en Smart Grid

Cárdenas Lino, César Andy January 2016 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / El objetivo principal del presente trabajo es describir la simulación y el análisis de desempeño de la red de comunicaciones LTE para infraestructura de medición avanzada (AMI) en las redes eléctricas inteligentes, o Smart Grid por su nombre en inglés. Para ello se elabora primero el estado del arte en temas de infraestructura de medición avanzada y su intervención para recolectar datos ocupando tecnologías de comunicaciones. Se crea un entorno de desarrollo para simulaciones utilizando OMNeT++ donde se implementan y modelan diferentes escenarios donde cohabiten y convergen dispositivos de medición de consumo eléctrico y terminales móviles, asegurando que tengan características de movilidad para cada uno. Se utiliza la herramienta de simulación en escenarios con datos geo-referenciales reales de la ciudad de Santiago incluidos las posiciones de estaciones base de una empresa de telecomunicaciones, se realizaron diversas simulaciones para validar el comportamiento del simulador, garantizando los detalles técnicos que tiene la red LTE a su vez que se utiliza como base para la elaboración de diversos escenarios optimizados. Se construye modelos avanzados donde aplicamos investigaciones colaborativas para optimizar posiciones de estaciones base eNodeB, conociendo la ubicación de los nodos y el área geográfica donde se aplica la optimización. Se aplica el simulador para observar el comportamiento de la red con datos de modelos reales y determinar una cobertura mínima para los smart meters. El aporte de este trabajo se centra en crear una herramienta que sirve para modelar y simular una red de comunicaciones móviles con clientes de una red de medición avanzada adicional a los clientes móviles tradicionales. Además, se propone continuar la línea de investigación con nuevas tecnologías que contengan un mayor alcance, además con la intervención de nuevas tecnologías computacionales para el desarrollo de Smart Grid Evolucionado.
267

Compact data structures for information retrieval on natural languages

Konow Krause, Roberto Daniel January 2016 (has links)
Doctor en Ciencias, Mención Computación / El principal objetivo de los sistemas de recuperación de información (SRI) es encontrar, lo más rápido posible, la mejor respuesta para una consulta de un usuario. Esta no es una tarea simple: la cantidad de información que los SRI manejan es típicamente demasiado grande como para permitir búsquedas secuenciales, por lo que es necesario la construcción de índices. Sin embargo, la memoria es un recurso limitado, por lo que estos deben ser eficientes en espacio y al mismo tiempo rápidos para lidiar con las demandas de eficiencia y calidad. La tarea de diseñar e implementar un índice que otorgue un buen compromiso en velocidad y espacio es desafiante tanto del punto de vista teórico como práctico. En esta tesis nos enfocamos en el uso, diseño e implementación de estructuras de datos compactas para crear nuevos índices que sean más rápidos y consuman menos espacio, pensando en ser utilizados en SRI sobre lenguaje natural. Nuestra primera contribución es una nueva estructura de datos que compite con el índice invertido, que es la estructura clásica usada en SRIs por más de 40 años. Nuestra nueva estructura, llamada {\em Treaps Invertidos}, requiere espacio similar a las mejores alternativas en el estado del arte, pero es un orden de magnitud más rápido en varias consultas de interés, especialmente cuando se recuperan unos pocos cientos de documentos. Además presentamos una versión incremental que permite actualizar el índice a medida que se van agregando nuevos documentos a la colección. También presentamos la implementación de una idea teórica introducida por Navarro y Puglisi, llamada Dual-Sorted, implementando operaciones complejas en estructuras de datos compactas. En un caso más general, los SRI permiten indexar y buscar en colecciones formadas por secuencias de símbolos, no solamente palabras. En este escenario, Navarro y Nekrich presentaron una solución que es óptima en tiempo, que requiere de espacio lineal y es capaz de recuperar los mejores $k$ documentos de una colección. Sin embargo, esta solución teórica requiere más de 80 veces el tamaño de la colección, haciéndola poco atractiva en la práctica. En esta tesis implementamos un índice que sigue las ideas de la solución óptima. Diseñamos e implementamos nuevas estructuras de datos compactas y las ensamblamos para construir un índice que es órdenes de magnitud más rápido que las alternativas existentes y es competitivo en términos de espacio. Además, mostramos que nuestra implementación puede ser adaptada fácilmente para soportar colecciones de texto que contengan lenguaje natural, en cuyo caso el índice es más poderoso que los índices invertidos para contestar consultas de frases. Finalmente, mostramos cómo las estructuras de datos, algoritmos y técnicas desarrolladas en esta tesis pueden ser extendidas a otros escenarios que son importantes para los SRI. En este sentido, presentamos una técnica que realiza agregación de información de forma eficiente en grillas bidimensionales, una representación eficiente de registros de accesos a sitios web que permite realizar operaciones necesarias para minería de datos, y un nuevo índice que mejora las herramientas existentes para representar colecciones de trazas de paquetes de red. / Este trabajo ha sido parcialmente financiado por Millennium Nucleus Information and Coordination in Networks ICM/FIC P10-024F, Fondecyt Grant 1-140796, Basal Center for Biotechnology and Bioengineering (CeBiB) y Beca de Doctorado Nacional Conicyt
268

Implementación de Data Guard para brindar alta disponibilidad a la base de datos Oracle del core de la empresa InnovaNetPe

Guillén Llerena, César Paúl January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Describe el proyecto de implementación de Oracle Data Guard para brindar alta disponibilidad a la base de datos Oracle del core de la empresa InnovaNetPe. El problema identificado fue que la base de datos Oracle, core del negocio, no tenía alta disponibilidad en operación, en caso la base de datos presentara algún inconveniente, los sistemas de ventas, postventa y reportería, para las diferentes áreas de la organización, estarían inhabilitados o inutilizables. El objetivo planteado fue implementar la alta disponibilidad, mediante Oracle Data Guard, a la base de datos core del negocio para brindar redundancia a este nivel, de tal forma que las operaciones principales de la organización no se vean afectadas. / Trabajo de suficiencia profesional
269

Autentificación Desmentible en Canales Anónimos

González Ulloa, Alonso Emilio January 2011 (has links)
El problema de comunicación anónima autentificada consiste en diseñar un protocolo que permita intercambiar mensajes entre un conjunto de participantes, de forma tal que cada emisor de un mensaje determina el destinatario de su mensaje y, una vez que se envía el mensaje, éste es efectivamente recibido por el destinatario determinado. La información que revela el protocolo en su ejecución debe mantener el anonimato, es decir debe ser tal que no permite a ningún adversario determinar información relacionada a las identidades de los participantes. El protocolo debe permitir a cada destinatario determinar con exactitud quién es el autor de cada mensaje que recibe, sin que esto contradiga el anonimato. Adicionalmente el protocolo debe mantener las garantías anteriores inclusive si es ejecutado en un ambiente concurrente, es decir es ejecutado con indeterminados otros protocolos. Las aplicaciones de la comunicación anónima autentificada son variadas. Por ejemplo es útil para diseñar sistemas de denuncia anónima de delitos donde adicionalmente se desea discriminar la información recibida según la identidad del que origina el mensaje. Esto puede ser útil si algunos informantes son más creíbles que otros. En este trabajo se plantea el problema de comunicación anónima autentificada y se muestra constructivamente la existencia de un protocolo que resuelve dicho problema. Para ello se estudian tópicos avanzados de Criptografía como Universal Compossability, Generalized Universal Composability, Anonimato, Desmentibilidad y las distintas primitivas criptográficas asociadas a dichos tópicos. Se definen rigurosamente las propiedades que debe tener un protocolo para resolver el problema planteado. Finalmente se diseña un protocolo eficiente para el cual se puede garantizar matemáticamente que satisface las propiedades necesarias para resolver el problema de comunicación anónima autentificada.
270

Resúmenes semiautomáticos de conocimiento : caso de RDF

Garrido García, Camilo Fernando January 2013 (has links)
Ingeniero Civil en Computación / En la actualidad, la cantidad de información que se genera en el mundo es inmensa. En el campo científico tenemos, por ejemplo, datos astronómicos con imágenes de las estrellas, los datos de pronósticos meteorológicos, los datos de infomación biológica y genética, etc. No sólo en el mundo científico se produce este fenómeno, por ejemplo, un usuario navegando por Internet produce grandes cantidades de información: Comentarios en foros, participación en redes sociales o simplemente la comunicación a través de la web. Manejar y analizar esta cantidad de información trae grandes problemas y costos. Por ello, antes de realizar un análisis, es conveniente determinar si el conjunto de datos que se posee es adecuado para lo que se desea o si trata sobre los temas que son de nuestro interés. Estas preguntas podrían responderse si se contara con un resumen del conjunto de datos. De aquí surge el problema que esta memoria abarca: Crear resúmenes semi-automáticos de conocimiento formalizado. En esta memoria se diseñó e implementó un método para la obtención de resúmenes semiautomáticos de conjuntos RDF. Dado un grafo RDF se puede obtener un conjunto de nodos, cuyo tamaño es determinado por el usuario, el cual representa y da a entender cuáles son los temas más importantes dentro del conjunto completo. Este método fue diseñado en base a los conjuntos de datos provistos por DBpedia. La selección de recursos dentro del conjunto de datos se hizo utilizando dos métricas usadas ampliamente en otros escenarios: Centralidad de intermediación y grados. Con ellas se detectaron los recursos más importantes en forma global y local. Las pruebas realizadas, las cuales contaron con evaluación de usuarios y evaluación automática, indicaron que el trabajo realizado cumple con el objetivo de realizar resúmenes que den a entender y representen al conjunto de datos. Las pruebas también mostraron que los resúmenes logran un buen balance de los temas generales, temas populares y la distribución respecto al conjunto de datos completo.

Page generated in 0.0404 seconds