• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 24
  • Tagged with
  • 171
  • 171
  • 81
  • 80
  • 55
  • 47
  • 29
  • 27
  • 18
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Técnicas avanzadas para la predicción de la variación del precio de la acción de BHP Billiton

Arancibia V., Natalia, Soto A., Patricia January 2006 (has links)
Tesis para optar al grado de Magíster en Finanzas / No disponible a texto completo / El estudio realizado analiza la eficiencia de modelos predictivos multivariados basados en técnicas de Algoritmo Genético, Redes Neuronales y Lógica Borrosa. Específicamente, en este estudio se determina la capacidad predictiva de los modelos analizando para ello el porcentaje de predicción del signo (PPS), comparación de la rentabilidad promedio que se obtendría con una estrategia de inversión activa versus una estrategia pasiva o Buy & Hold y la significancia estadística. Para el análisis se utiliza la variación del precio del fin de semana que han experimentado los ADR1 que son transados en la bolsa de Nueva York por BHP Billiton Limited para el período comprendido entre Abril de 2002 a Diciembre de 2006. El mejor modelo a recomendar se establece teniendo en cuenta que un PPS extramuestral mayor al 60% es un porcentaje de acierto significativo en el signo de la variación del precio, que la rentabilidad del modelo debe estar por sobre la rentabilidad Buy & Hold y además considerando la significancia estadística obtenida
2

Integración de sistemas de información geográfica

Buccella, Agustina 15 May 2009 (has links)
Actualmente, existe una expansión de gran cantidad de sistemas de información disponibles tanto en la Web como dentro de una misma organización. A su vez, muchos de estos sistemas involucran información geográfica para representar simples instancias del mundo real. Es imposible hoy en día pensar en representar información de un lugar, como una casa particular o un museo, sin almacenar también su ubicación geográfica precisa. Esta explosión de información sobre nuestra tierra es fácilmente visible en nuevos desarrollos en que muchas empresas están trabajando y perfeccionando, como es un buen ejemplo Google Earth. Es justamente esta gran proliferación de sistemas tanto convencionales como geográficos lo que ha generado un gran interés en la integración de los mismos. En general los primeros requerimientos involucrados en un proceso de integración se basan en factores como evitar ambiguedades en los datos, el aprovechamiento de la información ya recopilada, proveer una vista más amplia de toda la información que existe en una organización, etc. Sin embargo, comenzar un proceso de integración de datos incluso dentro de una organización es todo un desafío que no es fácil de lograr. Con esto en mente, desde hace más de diez años muchos investigadores han comenzado a trabajar en soluciones para lograr la integracióon de los datos. Así surge el concepto de Sistemas Federados que incluye todas aquellas acciones que se deben realizar para que varios sistemas de información que son autónomos, heterogéneos y están dis- tribuidos trabajen juntos como si fueran uno solo. En esta tesis proponemos una novedosa solución que apunta a ayudar y mejorar el proceso de integración de los datos. Está dirigida a brindar soporte a los desarrolladores de sistemas federados que deben iniciar un proceso de integración de varios sistemas de información involucrando también información espacial. El sistema que proponemos, de- nominado GeoMergeP, el cual se basa en una arquitectura basada en capas y en un proceso de integración, ayudaría a los desarrolladores a simplifiar problemas comunes como posibles ambiguedades e inconsistencias generadas al integrar varios sistemas. El sistema GeoMergeP se construye en base a dos procesos de integración, enriquecimiento semántico y mezcla, que brindan un soporte semi-automático a la creación de una vista integral del sistema federado resultante. El uso de los estándares para la información geográfica y la representación formal de ontologías como herramienta fundamental para proporcionar información semántica, brindan ventajas esenciales para generar una integración consistente. / Nowadays, there exists a great expansion of information systems available with in an organization or even on the Web. In general, several of these systems involve geographic information to represent common instances of the real-world. It is very common to think of representing information about a place, such as a particular house or museum, without thinking of storing also their precise geographic locations. In addition, the huge number of enterprises providing geographic services on the Web along with the new developments in GIS, such as Google Earth, show the growing availability of information about the Earth. This proliferation of both conventional and geographic information systems have caused a great interest towards integration. Requirements involved in any integration process are focused on aspects such as avoiding ambiguities in data, taking advantage of stored information, providing a more general view of distributed information, etc. How- ever, an integration process is not as simple as joining several systems, aspects such as modiability and evolution must be taken into account. Thus, beginning an integration process is a complex challenge to be faced. Having this in mind, for more that ten years several research groups in the world have been working on solutions to reach integration of data. Thus, the concept of Federated Systems emerged involving the actions to be performed to make autonomous, heterogeneous, and distributed systems work together. In this thesis, we propose a novel solution aimed at helping and improving the data integration process. This solution provides support to developers of federated systems who are responsible for starting an integration of several spatial information systems. We propose a system, called GeoMergeP, based on a layer-based architecture and an integration process which simplify common problems such as detecting ambiguities and inconsistencies generated during the construction of a federated system. The GeoMergeP system is built by using two main processes as a basis: the semantic enrichment and the merging processes. Both provide a semi-automatic support during the construction of an integral view of the resultant integrated system. The use of standard information to represent the geographic features, and the formal representation of ontologies as semantic resources to understand the meaning of the information, are crucial to generate a consistent integration.
3

Metodologías y métricas para desarrollo de sistemas de software

Pérez, Martín Mauricio 21 December 2008 (has links)
El desarrollo de sistemas de software es una disciplina relativamente joven que no ha alcanzado el nivel de madurez de otras ingenierías. Como consecuencia, los proyectos de desarrollo resultan frecuentemente en procesos inestables e impredecibles. Las Ciencias de la Computación han contribuido con conocimiento teórico, pero ciertas areas necesitan una mayor evolución para poder generar nuevas metodologías de trabajo. Uno de los aspectos más críticos es, dado el conjunto de metodologías existentes, determinar cuál corresponde utilizar para la construcción de un producto específico. Esta decisión involucra elegir, entre otras cosas, cuales son los pasos a seguir y que se espera lograr al finalizar cada una de las distintas etapas. El hecho de definir un proceso de producción de software nos permite repetir los beneficios de un proceso estandarizado. Sin embargo, hay que tener presente que es un proceso que (como toda actividad ingenieril) necesita de técnicas y metodologías precisas y bien definidas, y todavía no se ha logrado caracterizarlas por completo por lo novedoso de la disciplina. Este trabajo, en primer término, analiza y compara metodologías de desarrollo de sistemas e investiga las distintas areas de las Ciencias de la Computación sobre las cuales se fundamentan. La utilización de una metodología para el desarrollo de sistemas es la base para poder realizar la planificación y el control de proyectos. Asociados a estas tareas se encuentran los procesos de medición que se aplican tanto al producto como a los pasos para su construcción. Para cada una de las metodologías aplicadas, el trabajo profundiza sobre las métricas específicas existentes. / The software systems development is a relatively young discipline, and has not reached the same level of maturity of other engineering disciplines. As a consequence, the development projects result in unstable and unpredictable processes. Computer Sciences have contributed with theoretical knowledge, but certain areas need a grater evolution to generate new work methodologies. One of the more critical aspects is, given the set of existing development methodologies, to determine which of them to use to construct a specific product. This decision involves the choice, among other things, of what are the steps to follow and what is the expected result at the end of each step. The fact of defining a software production process makes possible to repeat the benefits of a standardized process. However, it is necessary to take into account that it is a process that (as every engineering activity) needs precise and well defined techniques and methodologies, and they are not completely characterized because of the discipline novelty. At a first stage, this work analyzes and compares systems development methodologies and investigates the different Computer Sciences areas on which they are foundated. The use of a systems development methodology is the base to carry out the projects planning and control. Associated with these tasks, there are measurement processes that apply to product as well as to the steps for their construction. For each of the applied methodologies, this work goes into existing specific metrics in depth.
4

Índices comprimidos para la recuperación de documentos

Ferrada Escobar, Héctor Ricardo January 2016 (has links)
Doctor en Ciencias, Mención Computación / Document Retrieval (DR) aims at efficiently retrieving the documents from a collection that are relevant to user queries. A challenging variant arises when the documents are arbitrary strings and the collection is large. This scenario arises in DNA or protein sequence collections, software repositories, multimedia sequences, East Asian languages, and others. Several DR compressed data structures have been developed to face this challenge, offering different space/time complexities. However, in practice the proposals with the best time performance require too much extra space. This thesis innovates in three aspects: (1) we build on Lempel-Ziv 1978 (LZ78) compres- sion, instead of suffix arrays, to build DR indices; (2) we build on Lempel-Ziv 1977 (LZ77) compression to handle highly repetitive collections; (3) we start the study of approximate answers in this DR scenario, which is common in DR on natural language texts. In this aspect, our main contribution is a new approach to DR based on LZ78 data compression, offering structures to solve the two most fundamental problems in the DR field: Document Listing (DL) and Top-k Retrieval. Our novel indices offer a competitive space/time tradeoff for both situations. Besides, our proposals are also capable of retrieving approximate answers, saving a lot of space and/or time compared with any structure that returns the full answer for any of these problems. Our second main contribution is the design of a structure for indexing highly repetitive text collections that solves the DL problem, which is built on the LZ77 parsing. This is the first attempt to solve DR problems using LZ77 data compression, which is the best compression scheme for such collections. On the other hand, we improve on basic data structures used, among others, in DR. We present an alternative design to the best theoretical Range Minimum Queries solution, maintaining its good complexities in space usage and query time. We obtain a simpler formula that leads to the fastest and most compact practical implementation to date. We also implemented various promising theoretical proposals for compressed suffix ar- rays, for which no previous implementations existed. Finally, we design and implement a compressed text index for highly repetitive collections that solves pattern matching, which is based on the LZ77 compression, and which is the basis for our LZ77-based DR index. / Document Retrieval (DR) apunta a la recuperación eficiente de documentos relevantes de una colección, para las consultas del usuario. Una variante que surge como desafío es cuando los documentos provienen de una gran colección de textos arbitrarios. Este escenario ocurre con colecciones de secuencias de ADN o proteínas, repositorios de software, secuencias multimedia e idiomas del Lejano Oriente, entre otros entornos. Varias estructuras de datos comprimidas para DR han sido desarrolladas a fin de hacer frente a este desafío, ofreciendo diferentes complejidades en tiempo/espacio. Sin embargo, en la práctica las propuestas con el mejor rendimiento en tiempo, requieren a su vez de demasiado espacio extra. Esta tesis innova tres aspectos: (1) construímos índices para DR en base a la compresión Lempel-Ziv 1978 (LZ78) en lugar de arreglos de sufíjos; (2) manipulamos colecciones altamente repetitivas en base a la compresión Lempel-Ziv 1977 (LZ77); (3) comenzamos a estudiar cómo entregar respuestas aproximadas en dicho escenario de DR, lo cual es una práctica común en textos de lenguaje natural. Nuestra principal contribución es un nuevo enfoque para DR basado en la compresión de datos LZ78, ofreciendo estructuras que resuelven los dos problemas fundamentales del campo de DR: Document Listing (DL) y Top-k Retrieval. Nuestros nuevos índices ofrecen desempeño competitivo en tiempo/espacio en ambos casos. Además nuestras propuestas también entregan respuestas aproximadas, ahorrando considerable espacio y/o tiempo comparado con cualquier otra estructura que entregue una respuesta completa a alguno de estos problemas. También diseñamos una estructura que indexa colecciones de texto altamente repetitivo y resuelve el problema de DL, basada en la compresión LZ77. Este el primer intento dirigido a resolver un problema de DR utilizando compresión de datos LZ77, que además es el mejor esquema de compresión para dichas colecciones. Por otro lado, realizamos mejoras sobre estructuras de datos básicas utilizadas en DR. Presentamos un diseño alternativo a la mejor solución teórica para Range Minimum Queries, manteniendo sus buenas complejidades en términos de espacio utilizado y tiempo de consulta. Logramos una fórmula más sencilla obteniendo como resultado la implementación más rápida y compacta conocida hasta hoy. Además implementamos varias propuestas teóricas promisorias para el arreglo de sufijos, de las cuales no existen implementaciones previas. Finalmente, diseñamos e implementamos un índice de texto comprimido para colecciones altamente repetitivas que resuelve el pattern matching, el cual se basa en la compresión LZ77, y que además es la base para nuestro índice sobre el LZ77 para DR. / This work has been partially funded by Conicyt Ph.D Scholarship Chile; Fondecyt Grant 1-140976; Millennium Nucleus for Information and Coordination in Networks, and Basal Center for Biotechnology and Bioengineering
5

Técnicas avanzadas aplicadas en la predicción de las variaciones de precio de las acciones de microsoft

Leal Alvarado, Rossana, Méndez Rivera, Luis 12 1900 (has links)
TESIS PARA OPTAR AL GRADO DE MAGISTER EN FINANZAS / Con éste compendio se pretende alcanzar una formación de alto nivel que permita efectuar análisis coherentes y con capacidad predictiva sobre problemas cotidianos planteados en los mercados financieros del área tecnológica, utilizando técnicas aplicables al área de estudio de las finanzas, tales como algoritmo genético, redes neuronales y lógica borrosa, métodos que serán utilizados para analizar las variaciones en los precios de las acciones de Microsoft respecto a otras empresas del área tecnológica como Oracle, Intel, Adobe, Hewlett Packard, entre otras. Sabemos que no existe un modelo matemático para la predicción en los mercados financieros. Además existen correlaciones complejas entre los distintos valores y su comportamiento puede estar influenciado por sucesos que no están contemplados o de los que no se dispone información suficiente. Es en estos entornos donde el problema es altamente complejo al existir influencia mutua entre los distintos valores y sucesos, la información es borrosa o incluso inexistente en algunos casos, y las relaciones son altamente no lineales, las redes neuronales sobrepasan ampliamente las técnicas convencionales. Para conseguir los datos se utilizó un sistema de descarga online automático, el cual baja los datos históricos directamente desde la página YAHOO.FINANCE.COM. El sistema on line se ocupa no sólo de la descarga de datos, sino que además introduce los datos en el sistema. El estudio tiene por objetivo: ����� Analizar de variación de precios de Microsoft y de las empresas del sector. ����� Introducir los datos en planillas Excell, para poder analizarlos a través de los métodos predictivos algoritmo genético, redes neuronales y lógica borrosa. ����� Evaluar la robustez de los resultados obtenidos. Comparar la rentabilidad de estas estrategias de inversión con la de una estrategia pasiva, comprar mantener o “buy and hold” en los distintos escenarios (elegidos aleatoriamente) a fin de medir la significancia económica de los resultados y el cumplimiento o no de la hipótesis de mercados eficientes (Fama 1970), donde la eficiencia significa que el mercado refleja completa y correctamente toda la información relevante para la determinación de los precios de los activos.
6

Predicción de signo a tres semanas de la acción caterpillar con redes neuronales

Bórquez Ramírez, Pedro, Villanueva Ramos, Jorge January 2006 (has links)
Tesis para optar al grado de Magíster en Finanzas
7

Mecanismo de filtrado criptográfico para sistemas de comunicación anónima basados en reencriptación

Bahamonde Vega, Jorge Andrés January 2013 (has links)
Ingeniero Civil en Computación / Las redes de comunicación anónima posibilitan nuevas formas de interacción entre las personas. En particular, la libre expresión de ideas contrarias a la opinión popular o la de la autoridad ha permitido, en ciertos casos, el inicio de procesos de cambio en las sociedades. Sin embargo, el anonimato puede ser abusado, lo cual lleva al cuestionamiento de la utilidad del mismo y a la tentación de no implementar estos sistemas. En este contexto, la posibilidad de filtrar de manera segura mensajes según un criterio público permite resolver este problema, al permitir implementar sistemas de comunicación anónima donde es posible filtrar (descartar) mensajes que no calzan con una política pública predefinida. Por ejemplo, el sistema de comunicación anónima pudiera establecer la restricción de que sólo mensajes "certificados" (firmados) por entidades confiables pueden ser comunicados. Un posible escenario de uso de tal sistema sería el caso en que usuarios pueden "comprar" el acceso al sistema de comunicación anónima, vía una autorización de su autoridad certificadora local. Una solución para este escenario se complica debido a la naturaleza distribuida de las implementaciones de canales de comunicación anónima - cada participante del sistema debe poder verificar si está procesando mensajes certificados o no. En la presente memoria se trabajó en la definición e instanciación de un sistema de comunicación anónima (en particular, una red de mezcla basada en reencriptación) que permitiese el filtrado de mensajes según una propiedad claramente definida. Para ello, primero se realizó un estudio de herramientas comúnmente aplicadas para obtener propiedades criptográficamente verificables, firmado y anonimato. Habiendo identificado un conjunto de herramientas útiles, el trabajo se focalizó en el aspecto definicional. Se logró construir una definición basada en conceptos criptográficos estándares. Luego, utilizando herramientas criptográficas analizadas, se construyó una instanciación de esta definición, utilizándose técnicas criptográficas formales y rigurosas para demostrar la seguridad del esquema. La solución desarrollada no sólo logra resolver el problema planteado, sino que provee una base sobre la cual pueden realizarse múltiples mejoras y extensiones futuras.
8

Pronóstico de caudales de deshielo a distintas escalas temporales, usando redes neuronales artificiales en la cuenca del río Mapocho en Los Almendros

Artigas Muñoz, Montserrat January 2015 (has links)
Ingeniera Civil / Actualmente se vive una situación de estrechez hídrica prolongada en la mayor parte del territorio nacional, donde se observa que desde la VI región hacia el norte, la demanda de agua dulce supera la oferta. Una de las principales fuentes de agua dulce la constituyen aquellas provenientes del derretimiento de nieves, por lo cual el modelar su derretimiento a escalas temporales finas, es decir, escalas temporales menores a la mensual, con el objeto de gestionar y utilizar el recurso hídrico de forma óptima, resulta de gran importancia. La presente memoria consiste en la elaboración de distintas redes neuronales artificiales con el objetivo de pronosticar caudales de deshielo a tres escalas temporales, las cuales son la escala diaria, semanal y quincenal, para la cuenca Mapocho en los Almendros. Adicionalmente, se evalúan y analizan los efectos de incluir datos hidrometeorológicos provenientes de la estación en Valle Nevado, tales como humedad del aire, temperatura y precipitación, en las redes neuronales. La metodología consta de cinco partes, en primera instancia se estudian las redes neuronales artificiales (RNA) mediante revisión bibliográfica, luego se realiza un análisis teórico del fenómeno en estudio con el objetivo de definir las variables significativas y poder formular las RNA para el pronóstico de caudales de deshielo a los distintos niveles temporales y seleccionar la RNA óptima para cada nivel. Finalmente se realiza la inclusión de los datos hidrometeorológicos de la estación Valle Nevado en los modelos RNA, concluyendo con un análisis de resultados, en el cual se simulan las RNA óptimas para la temporada de deshielo 2013 2014. Los resultados indican que se obtuvieron RNA con coeficientes de correlación de Pearson R2 mayores a 0.99 en el caso de las escalas temporales diaria y quincenal y mayores a 0.98 en el caso de la escala temporal semanal. Al simular las RNA óptimas para la temporada de deshielo 2013-2014, se obtuvieron caudales con errores absolutos promedio de 0.18 m3/s (5.6 %) para la escala temporal diaria, 0.39 m3/s (11.6%) para la escala temporal semanal y 0.38 m3/s (11.5%) para la escala temporal quincenal. Respecto a los parámetros de entrada, se concluye que aquellos más significativos, son los relacionados al caudal y la temperatura máxima, lo cual se observa tanto para las RNAs entrenadas con datos de la estación Mapocho en Los Almendros como de la estación Valle Nevado. Por último, debido a la escasa disponibilidad de datos y a la baja calidad de los mismos, los resultados obtenidos a partir de las RNAs entrenadas con datos de la estación Valle Nevado, no permiten decir con certeza si la inclusión de datos provenientes de una estación ubicada a 3.000 m.s.n.m. implican una mejora en los pronósticos de caudales de deshielo.
9

Resúmenes semiautomáticos de conocimiento : caso de RDF

Garrido García, Camilo Fernando January 2013 (has links)
Ingeniero Civil en Computación / En la actualidad, la cantidad de información que se genera en el mundo es inmensa. En el campo científico tenemos, por ejemplo, datos astronómicos con imágenes de las estrellas, los datos de pronósticos meteorológicos, los datos de infomación biológica y genética, etc. No sólo en el mundo científico se produce este fenómeno, por ejemplo, un usuario navegando por Internet produce grandes cantidades de información: Comentarios en foros, participación en redes sociales o simplemente la comunicación a través de la web. Manejar y analizar esta cantidad de información trae grandes problemas y costos. Por ello, antes de realizar un análisis, es conveniente determinar si el conjunto de datos que se posee es adecuado para lo que se desea o si trata sobre los temas que son de nuestro interés. Estas preguntas podrían responderse si se contara con un resumen del conjunto de datos. De aquí surge el problema que esta memoria abarca: Crear resúmenes semi-automáticos de conocimiento formalizado. En esta memoria se diseñó e implementó un método para la obtención de resúmenes semiautomáticos de conjuntos RDF. Dado un grafo RDF se puede obtener un conjunto de nodos, cuyo tamaño es determinado por el usuario, el cual representa y da a entender cuáles son los temas más importantes dentro del conjunto completo. Este método fue diseñado en base a los conjuntos de datos provistos por DBpedia. La selección de recursos dentro del conjunto de datos se hizo utilizando dos métricas usadas ampliamente en otros escenarios: Centralidad de intermediación y grados. Con ellas se detectaron los recursos más importantes en forma global y local. Las pruebas realizadas, las cuales contaron con evaluación de usuarios y evaluación automática, indicaron que el trabajo realizado cumple con el objetivo de realizar resúmenes que den a entender y representen al conjunto de datos. Las pruebas también mostraron que los resúmenes logran un buen balance de los temas generales, temas populares y la distribución respecto al conjunto de datos completo.
10

Implementación de un lenguaje de consultas para bases de datos de grafos utilizando estructuras de datos comprimidas

Lehmann Meléndez, Nicolás Emilio January 2014 (has links)
Ingeniero Civil en Computación / En la actualidad existe una clara tendencia por buscar nuevos modelos de bases de datos que se adecuen de mejor manera a las necesidades modernas. Dentro de las alternativas que cuentan con popularidad se encuentran las denominadas bases de datos de grafos, que han adquirido fuerza en conjunto a la reciente revolución de la Web y sus tecnologías asociadas. La adopción de este modelo aún requiere de un amplio estudio, pues los grafos suponen una complejidad intrínseca que debe ser considerada al momento de diseñar una implementación. Dos desafíos fundamentales que se presentan son los volúmenes de información que deben ser manejados, junto con la elección de un buen lenguaje de consultas que equilibre el nivel de expresividad con su complejidad de evaluación. En este trabajo se considera un lenguaje de consultas ampliamente estudiado que permite realizar consultas de navegación a partir de expresiones regulares. Así mismo, se presenta un algoritmo de evaluación práctico para resolver estas consultas de manera eficiente. Adicionalmente se utiliza una representación para bases de datos de grafos que explota las características de las estructuras de datos sucintas para mantener grandes volúmenes de información en memoria principal. El trabajo presenta además una implementación de la propuesta considerando la extensibilidad y orden del código, con el fin de proveer una herramienta de utilidad para nuevas investigaciones. El desarrollo está dividido en dos componentes. Por un lado se proporciona una biblioteca con la implementación de las estructuras sucintas involucradas y por otro un sistema simple de gestión de base de datos que permite la evaluación de consultas del lenguaje escogido. Adicionalmente, y con el objetivo de comprobar el desempeño de la propuesta, se presenta una evaluación experimental de la implementación, realizando una comparación con algunas alternativas actuales para bases de datos de grafos y obteniendo resultados favorables. Finalmente se termina el trabajo señalando las conclusiones obtenidas del análisis experimental realizado.

Page generated in 0.1035 seconds