• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 875
  • 60
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 945
  • 245
  • 186
  • 174
  • 159
  • 157
  • 150
  • 144
  • 143
  • 139
  • 139
  • 139
  • 139
  • 139
  • 126
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modelamiento de un Generador de Mallas Basado en Octrees, Usando Patrones de Diseño.

Arancibia Román, Nicolás Ignacio January 2007 (has links)
No description available.
102

Towards Practical Omniscient Debugging

Pothier, Guillaume January 2011 (has links)
No description available.
103

Índices comprimidos para la recuperación de documentos

Ferrada Escobar, Héctor Ricardo January 2016 (has links)
Doctor en Ciencias, Mención Computación / Document Retrieval (DR) aims at efficiently retrieving the documents from a collection that are relevant to user queries. A challenging variant arises when the documents are arbitrary strings and the collection is large. This scenario arises in DNA or protein sequence collections, software repositories, multimedia sequences, East Asian languages, and others. Several DR compressed data structures have been developed to face this challenge, offering different space/time complexities. However, in practice the proposals with the best time performance require too much extra space. This thesis innovates in three aspects: (1) we build on Lempel-Ziv 1978 (LZ78) compres- sion, instead of suffix arrays, to build DR indices; (2) we build on Lempel-Ziv 1977 (LZ77) compression to handle highly repetitive collections; (3) we start the study of approximate answers in this DR scenario, which is common in DR on natural language texts. In this aspect, our main contribution is a new approach to DR based on LZ78 data compression, offering structures to solve the two most fundamental problems in the DR field: Document Listing (DL) and Top-k Retrieval. Our novel indices offer a competitive space/time tradeoff for both situations. Besides, our proposals are also capable of retrieving approximate answers, saving a lot of space and/or time compared with any structure that returns the full answer for any of these problems. Our second main contribution is the design of a structure for indexing highly repetitive text collections that solves the DL problem, which is built on the LZ77 parsing. This is the first attempt to solve DR problems using LZ77 data compression, which is the best compression scheme for such collections. On the other hand, we improve on basic data structures used, among others, in DR. We present an alternative design to the best theoretical Range Minimum Queries solution, maintaining its good complexities in space usage and query time. We obtain a simpler formula that leads to the fastest and most compact practical implementation to date. We also implemented various promising theoretical proposals for compressed suffix ar- rays, for which no previous implementations existed. Finally, we design and implement a compressed text index for highly repetitive collections that solves pattern matching, which is based on the LZ77 compression, and which is the basis for our LZ77-based DR index. / Document Retrieval (DR) apunta a la recuperación eficiente de documentos relevantes de una colección, para las consultas del usuario. Una variante que surge como desafío es cuando los documentos provienen de una gran colección de textos arbitrarios. Este escenario ocurre con colecciones de secuencias de ADN o proteínas, repositorios de software, secuencias multimedia e idiomas del Lejano Oriente, entre otros entornos. Varias estructuras de datos comprimidas para DR han sido desarrolladas a fin de hacer frente a este desafío, ofreciendo diferentes complejidades en tiempo/espacio. Sin embargo, en la práctica las propuestas con el mejor rendimiento en tiempo, requieren a su vez de demasiado espacio extra. Esta tesis innova tres aspectos: (1) construímos índices para DR en base a la compresión Lempel-Ziv 1978 (LZ78) en lugar de arreglos de sufíjos; (2) manipulamos colecciones altamente repetitivas en base a la compresión Lempel-Ziv 1977 (LZ77); (3) comenzamos a estudiar cómo entregar respuestas aproximadas en dicho escenario de DR, lo cual es una práctica común en textos de lenguaje natural. Nuestra principal contribución es un nuevo enfoque para DR basado en la compresión de datos LZ78, ofreciendo estructuras que resuelven los dos problemas fundamentales del campo de DR: Document Listing (DL) y Top-k Retrieval. Nuestros nuevos índices ofrecen desempeño competitivo en tiempo/espacio en ambos casos. Además nuestras propuestas también entregan respuestas aproximadas, ahorrando considerable espacio y/o tiempo comparado con cualquier otra estructura que entregue una respuesta completa a alguno de estos problemas. También diseñamos una estructura que indexa colecciones de texto altamente repetitivo y resuelve el problema de DL, basada en la compresión LZ77. Este el primer intento dirigido a resolver un problema de DR utilizando compresión de datos LZ77, que además es el mejor esquema de compresión para dichas colecciones. Por otro lado, realizamos mejoras sobre estructuras de datos básicas utilizadas en DR. Presentamos un diseño alternativo a la mejor solución teórica para Range Minimum Queries, manteniendo sus buenas complejidades en términos de espacio utilizado y tiempo de consulta. Logramos una fórmula más sencilla obteniendo como resultado la implementación más rápida y compacta conocida hasta hoy. Además implementamos varias propuestas teóricas promisorias para el arreglo de sufijos, de las cuales no existen implementaciones previas. Finalmente, diseñamos e implementamos un índice de texto comprimido para colecciones altamente repetitivas que resuelve el pattern matching, el cual se basa en la compresión LZ77, y que además es la base para nuestro índice sobre el LZ77 para DR. / This work has been partially funded by Conicyt Ph.D Scholarship Chile; Fondecyt Grant 1-140976; Millennium Nucleus for Information and Coordination in Networks, and Basal Center for Biotechnology and Bioengineering
104

Un Método de Evaluación de Aplicaciones Cooperativas Móviles, Orientado a Mejorar el Apoyo para la Colaboración

Herskovic Maida, Valeria January 2010 (has links)
No description available.
105

Mejoramiento de una Herramienta para Apoyar la Aplicación de CET (Collaborative Examining Technique)

Vitta Fuentes, Gonzalo Felipe January 2008 (has links)
No description available.
106

Técnicas avanzadas aplicadas en la predicción de las variaciones de precio de las acciones de microsoft

Leal Alvarado, Rossana, Méndez Rivera, Luis 12 1900 (has links)
TESIS PARA OPTAR AL GRADO DE MAGISTER EN FINANZAS / Con éste compendio se pretende alcanzar una formación de alto nivel que permita efectuar análisis coherentes y con capacidad predictiva sobre problemas cotidianos planteados en los mercados financieros del área tecnológica, utilizando técnicas aplicables al área de estudio de las finanzas, tales como algoritmo genético, redes neuronales y lógica borrosa, métodos que serán utilizados para analizar las variaciones en los precios de las acciones de Microsoft respecto a otras empresas del área tecnológica como Oracle, Intel, Adobe, Hewlett Packard, entre otras. Sabemos que no existe un modelo matemático para la predicción en los mercados financieros. Además existen correlaciones complejas entre los distintos valores y su comportamiento puede estar influenciado por sucesos que no están contemplados o de los que no se dispone información suficiente. Es en estos entornos donde el problema es altamente complejo al existir influencia mutua entre los distintos valores y sucesos, la información es borrosa o incluso inexistente en algunos casos, y las relaciones son altamente no lineales, las redes neuronales sobrepasan ampliamente las técnicas convencionales. Para conseguir los datos se utilizó un sistema de descarga online automático, el cual baja los datos históricos directamente desde la página YAHOO.FINANCE.COM. El sistema on line se ocupa no sólo de la descarga de datos, sino que además introduce los datos en el sistema. El estudio tiene por objetivo: ����� Analizar de variación de precios de Microsoft y de las empresas del sector. ����� Introducir los datos en planillas Excell, para poder analizarlos a través de los métodos predictivos algoritmo genético, redes neuronales y lógica borrosa. ����� Evaluar la robustez de los resultados obtenidos. Comparar la rentabilidad de estas estrategias de inversión con la de una estrategia pasiva, comprar mantener o “buy and hold” en los distintos escenarios (elegidos aleatoriamente) a fin de medir la significancia económica de los resultados y el cumplimiento o no de la hipótesis de mercados eficientes (Fama 1970), donde la eficiencia significa que el mercado refleja completa y correctamente toda la información relevante para la determinación de los precios de los activos.
107

Identificación automática de acciones humanas en secuencias de video para soporte de videovigilancia

Fernández Martínez, Luis Christian 28 November 2018 (has links)
La identificación de acciones en secuencias de video es un tema de especial interés para aplicaciones como detección de peleas, identificación de vandalismo, detección de asaltos a transeúntes, detección de contenido no apto para menores, etc. Este interés se encuentra asociado al incremento de cámaras de videovigilancia alrededor del mundo y a la masiva producción de videos en línea cargados a las diferentes plataformas sociales de almacenamiento y distribución de contenido bajo demanda. Debido a ello, se decide utilizar un modelo de detección de acciones humanas y aplicarlo en secuencias de videovigilancia. Dicho modelo utiliza redes neuronales profundas, con la finalidad de poder realizar la tarea de clasificación. El modelo aplicado se basa en el extracción de características convolucionales y temporales utilizando una parte de la red Inception V3 para lo primero y una red LSTM para lo segundo. Finalmente, se aplica el modelo en el dataset UCF101 el cual contiene acciones humanas diversas y luego sobre el dataset VIRAT 2.0 Ground, el cual contiene secuencias de videovigilancia. / Tesis
108

Proceso de extracción de patrones secuenciales para la caracterización de fenómenos espacio-temporales

Maldonado Cadenillas, Rodrigo Ricardo 30 May 2016 (has links)
El objetivo de este trabajo de fin de carrera es realizar un proceso de extracción de patrones secuenciales basado en KDD, empleando el algoritmo de minería de patrones secuenciales PrefixSpan para prever el comportamiento de fenómenos representados por eventos que cambian con el tiempo y el espacio. Estos tipos de fenómenos son llamados fenómenos espacio-temporales, los cuales son un conjunto de eventos o hechos perceptibles por el hombre. Además, están compuestos por un componente espacial (la ubicación donde sucede el fenómeno), un componente temporal (el momento o intervalo de tiempo en el que ocurre el fenómeno) y un componente de análisis (el conjunto de características que describen el comportamiento del fenómeno). En el mundo, se pueden observar una gran diversidad de fenómenos espaciotemporales; sin embargo, el presente trabajo de fin de carrera se centra en los fenómenos naturales, tomando como caso de prueba el fenómeno espacio-temporal de la contaminación de los ríos en Reino Unido. Por lo tanto, con el fin de realizar un estudio completo sobre este fenómeno, se utiliza KDD (Knowledge Discovery in Databases) para la extracción del conocimiento a través de la generación de patrones novedosos y útiles dentro de esquemas sistemáticos complejos. Además, se utilizan métodos de Minería de Datos para extraer información útil a partir de grandes conjuntos de datos. Así mismo, se utilizan patrones secuenciales, los cuales son eventos frecuentes que ocurren en el tiempo y que permiten descubrir correlaciones entre eventos y revelar relaciones de “antes” y “después”. En resumen, el presente trabajo de fin de carrera se trata de un proceso para mejorar el estudio del comportamiento de los fenómenos gracias al uso de patrones secuenciales. De esta manera, se brinda una alternativa adicional para mejorar el entendimiento de los fenómenos espacio-temporales; y a su vez, el conocimiento previo de sus factores causantes y consecuentes que se puedan desencadenar, lo cual permitiría lanzar alertas tempranas ante posibles acontecimientos atípicos. / Tesis
109

Un sistema experto para optimizar la toma de decisiones de financiamiento

Vento Ortíz, Alfredo 18 February 2013 (has links)
Sin resumen. / Tesis
110

Memorias matriciales correlacionadas cuánticas, simples y mejoradas: una propuesta para su estudio y simulación sobre GPGPU

Mastriani, Mario 12 September 2014 (has links)
En este trabajo se desarrollan-en orden-los fundamentos de la Física Cuántica, y de la Computación Cuántica, una noción completa de las arquitecturas multicapa tolerante a fallos para la implementación física de una computadora cuántica, para completar los primeros cuatro capítulos con las técnicas propias para la simulación de este nuevo paradigma sobre placas multicore del tipo General-Purpose Computing on Graphics Processing Units (GPGPU). La segunda parte de este trabajo consiste en los tres capítulos inmediatamente siguientes, los cuales suman 10 innovaciones en este campo, a saber: 1. el Proceso de Ortogonalización Booleano (POB) con su inversa, 2. el Proceso de Ortogonalización de Gram-Schmidt Mejorado (POGSMe) con su inversa, 3. el Proceso de Ortogonalización Cuántico (POCu) con su inversa, 4. la Red Ortogonalizadora Booleana Sistólica (ROBS), 5. la Red Ortogonalizadora Cuántica Sistólica (ROCS), y 6. una métrica que llamamos Tasa Dimensional de Entrada-Salida (TDES) la cual fue creada para monitorear el impacto del mejorador para la estabilidad del Proceso Ortogonalizador de Gram-Schmidt en el costo computacional final. 7. una versión mejorada de las ya conocidas Memorias Matriciales Correlacionadas Booleanas (MMCB), es decir, la MMCB mejorada (MMCBMe) en base al innovador Proceso de Ortonormalización Booleano (POB) del Capítulo 5, 8. la Memoria Matricial Correlacionada Cuántica (MMCCu), y 9. la MMCCu Mejorada (MMCCuMe) en base al Proceso de Ortogonalización Cuántico (POCu) implementado en forma sistólica y conocida como la Red Ortogonalizadora Cuántica Sistólica (ROCS) del Capítulo 5.10. el Capítulo 7, el cual contiene las simulaciones computacionales, las cuales verifican fehacientemente la mejora en la performance de almacenamiento como resultado de aplicar el POCu a las MMCCu, así como una serie de simulaciones relativas a arreglos uni, bi y tridimensionales, los cuales representan señales, imágenes (multimediales, documentales, satelitales, biométricas, etc.) y video o bien imágenes multi e hiper-espectrales satelitales, tomografías o resonancias magnéticas seriadas, respectivamente. Dichas simulaciones tienen por objeto verificar los atributos de ortogonalización de los algoritmos desarrollados. Dado que es la primera vez que en la literatura se realizan este tipo de simulaciones en GPGPU para esta tecnología, el Capítulo 7 representa en si mismo el décimo aporte del presente trabajo a esta área del conocimiento. Un último capítulo reservado a conclusiones parciales por capítulo y generales del trabajo como un todo.

Page generated in 0.0337 seconds