• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 4
  • Tagged with
  • 45
  • 45
  • 45
  • 15
  • 13
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Clasificación fotométrica de supernovas

Cano Delgado, Ignacio January 2016 (has links)
Ingeniero Civil Eléctrico / Entre los desafíos mas importantes para la cosmología actual se encuentran la expansión y composición del universo. Una de las herramientas mas útiles para la investigación en estos campos son las supernovas de tipo Ia, eventos de gran liberacion energetica que siguen al colapso de una estrella en un sistema binario, esto debido a que las caracteristicas de esta explosión permiten calcular distancias en base a su corrimiento al rojo. El problema es que su identificación y clasificación es un problema no trivial, y el método clasico, el espectroscópico, resulta incapaz de adaptarse al rápido aumento en la información disponible, proveniente de sondeos de última generación. Por lo que resulta de gran importancia encontrar la forma de aprovechar al máximo la información fotométrica, mucho mas abundante que la espec- troscópica. El objetivo de esta memoria es diseñar una metodología para la clasificación de supernovas tipo Ia, que entregue resultados competitivos con los presentes en la literatura, esto mediante la aplicación de correntropía mutua ranurada, una medida discreta de disi- militud, sobre la información fotométrica de estas. Se generan matrices de disimilitud para cada uno de los filtros disponibles (griz ) y se prueban diferentes métodos para la combina- ción de esta información. Se explora el efecto de añadir la información de corrimiento al rojo fotométrico (photo-z ) y la forma de introducirla al proceso de clasificación. La clasificación es realizada utilizando tres implementaciones diferentes de algoritmos de vecinos cercanos (K-nearest neighbours, weighted K-nearest neighbours, y distance-weighted K-nearest neigh- bours). La base de datos utilizada corresponde a la versión corregida de un set de supernovas simuladas creada con motivo del Supernova Photometric Classification Challenge (SNPCC), que contiene la información fotométrica de cerca de 21000 supernovas. El entrenamiento se realiza utilizando un conjunto de 1100 objetos cuya clase ha sido espectroscópicamente confirmada, este subconjunto intenta simular las condiciones de captura esperables (e.g. dis- tribución no representativa de clases, preferencia por objetos mas brillantes) y por lo tanto se ha decidido mantenerlo. Tambien se exploran los resultados obtenidos al utilizar una versión de este conjunto modificada para tener una distribución mas representativa, tanto en ter- minos de clases como de corrimiento al rojo. Se obtiene pureza = 0.556(0.824), eficiencia = 0.567(0.307), y FoM = 0.167(0.187) utilizando el conjunto espectroscópicamente confirmado (en su versión modificada) para el entrenamiento.
2

La calidad de los datos como un valor de activo diferencial

Carrasco Chanamé, Victor Eduardo January 2018 (has links)
Publicación a texto completo no autorizada por el autor / El documento digital no refiere asesor / Propone un modelo de calidad de datos que permita evaluar y mejorar la calidad de los datos en aquellas organizaciones en las que se utilizan diferentes fuentes de base de datos con la misma información, pero con contenido diferente, lo cual no les permite tomar decisiones en forma correcta y oportuna. Específicamente se busca desarrollar un enfoque sistemático, disciplinado y estructurado que se apoye en el modelo propuesto, y que provea las pautas y guías para que la aplicación del modelo de calidad de datos pueda ser repetible y generalizable sobre los datos de cualquier organización. Otro objetivo planteado es mostrar que producto del creciente avance tecnológico relacionado con los datos y la información las organizaciones que deseen estar a la vanguardia deben utilizar un mecanismo que garantice la calidad de los datos apoyados en un modelo como el propuesto en este trabajo. Para la realización del presente trabajo hemos utilizado el método científico, y el tipo de investigación utilizado es de tipo aplicada, que se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos. La investigación aplicada busca el conocer para hacer, para actuar, para construir, para modificar. / Trabajo de suficiencia profesional
3

Visualización espacio/temporal de eventos noticiosos

Palma Pradena, Camilo Pablo Antonio January 2013 (has links)
Ingeniero Civil en Computación / Todos los días y a toda hora ocurren eventos en el mundo. Los eventos importantes pasan a ser noticia y generan contenido en la Web. La motivación de este trabajo es visualizar este tipo de datos, mediante la construcción de una aplicación, para saber qué ocurre en un determinado intervalo de tiempo y a su vez utilizar esta herramienta para investigación de datos estructurados de noticias. Para ello fue necesario investigar cómo visualizar eventos, para entregar de manera efectiva la información de estas noticias. También, analizar las distintas fuentes de datos de noticias disponibles en la web, como Google News y Feedzilla, para poder recolectar datos y validar una solución. Además, se modeló un diseño de base de datos que permite unificar la estructura de los datos de distintas fuentes. Se desarrolló una aplicación web llamada Eventsvis capaz de visualizar datos estructurados de noticias, en la que se muestra la relevancia, ubicación, categoría y fecha en la que ocurren estas noticias. También, se desarrollaron dos módulos capaces de recolectar noticias tanto de la API de Google News como de la API de Feedzilla. Además, esta información se enriqueció con información adicional que no era entregada por las fuentes, como la ubicación de las noticias y keywords del contenido de estas. Finalmente se pudo automatizar la recolección de noticias mediante un cron. Como resultado de la solución desarrollada, se pudo obtener información adicional de los conjuntos de datos solamente observando la visualización. Se determinó que ciertas categorías son más difíciles de georeferenciar que otras, también que en ciertos intervalos de tiempo no se recolectaban datos y que ciertas ubicaciones poseen más noticias que otras. Al mismo tiempo, se construye una herramienta capaz de mostrar los eventos ocurridos en un intervalo de tiempo. Finalmente, se discute cómo sería posible extender este trabajo o reutilizar este trabajo para utilizar otras fuentes de datos.
4

Herramienta ETL para Logs de procesos

Toro Valdivia, Jorge Francisco January 2016 (has links)
Ingeniero Civil en Computación / Hoy en día las empresas nacen como respuesta a distintos problemas o desafíos entregando diversas de soluciones, las cuales se llevan a cabo ejecutando una serie de procesos. Estos pueden estar definidos formalmente o se van construyendo de forma natural a partir de la forma en que las personas abordan los problemas. Por esto, se hace fundamental poder realizar distintos análisis sobre dichos procesos, en especial descubrir cómo se llevan a cabo en forma real. Estos análisis nos permiten optimizar, mejorar, transformar estos procesos permitiendo a las empresas y grupos de trabajo evolucionar. Muchos de estos análisis, y los programas que los implementan, suelen ser de alta complejidad y tienden a tomar datos de los procesos en formatos específicos. Esto ocasiona que los registros de datos, también conocidos como logs de procesos, deban adaptarse a dichos formatos y por consiguiente a las herramientas y/o personas que los generan. Otra opción, es realizar un desarrollo sobre los programas de análisis para que puedan aceptar un nuevo formato, lo que tiene un costo proporcional a la complejidad del software. Es por esto que se propuso una nueva opción: desarrollar una herramienta ETL intermediaria que nos permita transformar logs desde distintos formatos a un formato utilizado por programas de descubrimientos de procesos u otros tipos de análisis relacionados. Se logró desarrollar una aplicación que, a través de una GUI, permite hacer distintas transformaciones desde bases de datos y planillas Excel al formato XES, el cual es usado por varios programas de descubrimiento de procesos. Esta aplicación permite al usuario configurar sus conversiones eligiendo los datos de origen así como su tipo. Este programa fue validado a través de distintas pruebas, utilizando datos reales y un programa que realiza descubrimientos de procesos sobre archivos XES. Este desarrollo ha permitido abarcar una amplia gama de formatos sin tener que modificar datos ni los otros programas que los utilizaban, permitiendo que diversos procesos puedan ser estudiados y mejorados. / Este trabajo ha sido parcialmente financiado por Proyecto Gems.
5

Implementación de un algoritmo distribuido de generación de claves RSA con umbral

Muñoz Vildósola, Caterina January 2016 (has links)
Ingeniera Civil en Computación / La presente memoria detalla el proceso de implementación de un algoritmo distribuido de generación de claves RSA umbral. RSA es un sistema criptográfico de clave privada. Esto significa que se requieren dos claves distintas para realizar las operaciones criptográficas: una privada y una pública. En un sistema RSA la clave privada consiste en un valor privado (llamado exponente de firma o desencriptación) mientras que la clave pública consiste en dos valores (el exponente de verificación o encriptación, más un valor denominado módulo ). En un sistema RSA tanto el exponente privado como la factorización del módulo deben mantener secretos para garantizar la seguridad. En RSA umbral, la operación privada está distribuida entre n nodos. De los n nodos mencionados, se requieren t para poder realizar una operación criptográfica privada de manera exitosa. Dado que la operación privada está distribuida, la clave privada también debe estarlo. Además, tanto la claves privadas como la factorización del módulo RSA deben seguir siendo secretos. Dado lo anterior, al momento de generar las claves ningún nodo debe tomar conocimiento ni de las claves privadas ajenas, ni de la factorización del módulo RSA. El trabajo de esta memoria consistió en implementar el algoritmo de generación distribuida de claves RSA umbral propuesto por D. Boneh y M. Franklin. Dicho algoritmo logra generar un módulo RSA y un conjunto de claves privadas umbral sin que ningún nodo obtenga información sobre la factorización del módulo ni sobre las claves ajenas. A diferencia de trabajos previos, el algoritmo logra lo anterior sin requerir de un actor confiable que genere y distribuya las claves. Cabe destacar que el tiempo de ejecución del algoritmo es aleatorizado, por lo que no se puede predecir cuánto tomará en ejecutarse. A pesar de lo anterior, hay un tiempo de ejecución esperado. Se realizaron pruebas que comprobaron que la implementación estaba correcta y se comportaba de acuerdo a lo especificado en el algoritmo original. Además, se pudo comprobar que el promedio de los tiempos de ejecución medidos fueron menores al tiempo de ejecución esperado. / Este trabajo ha sido parcialmente financiado por Nic Chile Research Labs
6

Application of statistical signal processing techniques in natural rock textures characterization and astrometry

Lobos Morales, Rodrigo Alejandro January 2015 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Ingeniero Civil Eléctrico / Tanto en ingeniería en minas como en astronomía existen problemas inversos en los cuales técnicas del procesamiento de señales juegan un rol importante al momento de procesar la información existente de manera óptima. En este trabajo de Tesis los problemas de clasifi- cación de texturas de roca y astronometría son abordados usando técnicas del procesamiento estadístico de señales. En ingeniería en minas es de gran importancia contar con una buena caracterización del subsuelo. Para ello diversas fuentes de información son utilizadas, encontrándose entre ellas la información visual de la textura de las rocas. Pese al amplio uso de estas fuentes para hacer inferencia del tipo de roca, no se ha logrado el desarrollo de técnicas de procesamiento computacional y automático que las implementen de manera exitosa. En este trabajo de tesis, seis clases de textura de roca son analizadas utilizando técnicas avanzadas del procesamiento de imágenes. Específicamente, para cada clase se propone la extracción de características especialmente diseñadas para esa clase. Las características propuestas ofrecen un alto poder discriminador y baja dimensionalidad. Adicionalmente, se propone un esquema de banco de detectores binarios con el fin de poner a prueba las características diseñadas. Finalmente, el desempeño de clasificación del método propuesto es comparado con métodos en el estado del arte de clasificación de texturas, mostrando ganancias importantes en cuanto a error de clasificación. El problema de astrometría corresponde a la determinación de la posición de astros me- diante dispositivos detectores, comúnmente CCDs (Charged Coupled Devices). Dichos dis- positivos presentan fuentes de ruido que afectan negativamente los métodos de localización. En este trabajo de tesis el método de mínimos cuadrados es analizado en detalle. En este contexto dicho método corresponde a un problema de regresión no lineal, por lo cual el desempeño o varianza del estimador resultante no puede ser caracterizado de manera aná- litica. Para ello se propone un método de aproximación de la varianza del estimador, que permite la comparación analítica con la cota de Cramér-Rao. Finalmente, análisis empíricos son desarrollados utilizando diversas configuraciones experimentales, encontrándose que, en determinadas condiciones de medición, el estimador es eficiente con respecto a la cota de Cramér-Rao.
7

Implementación de una aplicación para el análisis y visualización de eventos en español usando extracción automática de ontologías

Valeriano Loli, Enrique 12 February 2019 (has links)
La globalización y la aparición de diferentes tecnologías como las redes sociales han ocasionado que la información relacionada a noticias y eventos se propague de una manera más rápida. Ahora las empresas deben estar siempre pendientes a los datos generados para así ser más eficaces en su relación con ellos. Sin embargo, esta es una tarea difícil debido a la gran cantidad de datos y a la falta de procesos automáticos para analizar estos, sobre todo en el idioma español. Como objetivo de este proyecto, se busca brindar una aplicación la cual de manera automática pueda realizar análisis de datos de eventos en español y permitan visualizar los aspectos más importantes relacionados a estos datos. Para esto se implementarán algoritmos de Análisis de Formal de Conceptos y Análisis de Patrones Léxico-Sintácticos. Además, se usarán ontologías para poder estructurar la información recolectada a partir de los algoritmos. Se concluye que los algoritmos desarrollados permiten obtener las entidades y relaciones más relevantes encontradas en los datos con porcentajes relativamente altos de precisión y exhaustividad sobre todo usando datos limpios. Además, es posible mostrar la información recolectada de manera adecuada debido a la flexibilidad de las ontologías. / Tesis
8

Desarrollo de un sistema de adquisición de datos de temperatura para evaluación funcional de incubadoras / José Miguel Obregón Núñez

Obregón Núñez, José Miguel 09 May 2011 (has links)
El sistema de adquisición de datos de temperatura implementado provee la información de la temperatura en puntos específicos en el habitáculo de una incubadora neonatal. Estos datos son necesarios para realizar el ensayo especificado en la Norma IEC 601219.50.102 el cual determina la precisión de los datos de funcionamiento de la incubadora en lo que respecta a temperatura. El presente trabajo comienza con la revisión de los conceptos sobre medición de temperatura, tipos de sensores, los métodos para procesamiento de señales analógicas y las normas que determinan las características del equipo (rango de medición, precisión y número de puntos de medición). Se toma como referencia los ensayos realizados en el prototipo documentado en el proyecto Sistema de Supervisión Gráfica en 3D de Temperaturas en Tiempo Real de un Ambiente Cerrado y las observaciones encontradas durante su desarrollo para plantear el esquema general del sistema de adquisición de datos de temperatura. Éste se divide en dos partes: La unidad de sensado, en donde se realiza la adquisición y acondicionamiento de la señal del sensor y el módulo central de adquisición de datos, el cual tendría como finalidad servir de interfaz para establecer una comunicación entre las unidades de sensado y la computadora personal. Tiene también como función adicional, la alimentación de las unidades de sensado. / Tesis
9

Uso de modelos en OpticStudio (Zemax) para caracterizar el perfil de luz de imágenes astronómicas

Jara Pinochet, Rodolfo Alejandro January 2017 (has links)
Ingeniero Civil en Computación / La luz visible es la única parte de la radiación electromagnética que es reconocida como un estímulo detectable en el sistema visual humano. Para mejorar la capacidad de observar imágenes astronómicas se han desarrollado grandes y precisos telescopios. Asimismo, la sensibilidad de las observaciones actualmente ha mejorado al usar detectores CCD (Charge- Coupled Device), que recogen fotones y convierten a formato digital la información que se recibe del objeto astronómico en observación. A partir de modelos en OpticStudio (modelos ópticos) se simularon PSFs (Point Spread Function) en dispositivos CCD y se verifico que las simulaciones realizadas producían una respuesta igual de buena como la predicha por la teoría de aberraciones clásica. Como información de contexto se explican conceptos de óptica, Point Spread Function (PSF), modelos de telescopios, una descripción pormenorizada de los dispositivos CCD. Se describe las funciones atingentes a la generación de una PSF a partir de un modelo óptico en el software OpticStudio y se explica cómo se llegó al código (en Matlab) utilizado para realizar las simulaciones. Del modelo en OpticStudio se exportaba la grilla de datos de la Huygens PSF a Matlab, donde se integraba, se asignaba a los pixeles del CCD y se agregaban las fuentes de ruido para producir las simulaciones, de las cuales se producían cientos o miles de realizaciones que eran exportadas en formato fits, las cuales eran posteriormente procesadas por un conjunto de rutinas en un ambiente de reducción de datos astronómico (donde los datos astronómicos son manipulados para obtener la información útil al astrónomo). Dentro de las simulaciones se realizaron variaciones desviando el eje óptico (como si el espejo se inclinara) y se compararon dichas variaciones con modelos teóricos, los cuales concordaron en alta medida con la teoría de las aberraciones (coma y astigmatismo), demostrando la utilidad de usar esta forma de estudiar dispositivos ópticos para reproducir efectos ópticos producidos en espejos parabólicos y esféricos (dado que estos son de uso frecuente en astronomía) y así caracterizar el perfil de luz de imágenes astronómicas. / Este trabajo ha sido parcialmente financiado por Proyecto FONDECYT N° 1151213
10

Efficient non-interactive zero-knowledge Proofs

González Ulloa, Alonso Emilio January 2017 (has links)
Doctor en Ciencias, Mención Computación / Non-Interactive Zero-Knowledge (NIZK) proofs, are proofs that yield nothing beyond their validity. As opposed to the interactive variant, NIZK proofs consist of only one message and are more suited for high-latency scenarios and for building inherently non- interactive schemes, like signatures or encryption. With the advent of pairing-based cryptography many cryptosystems have been built using bilinear groups, that is, three abelian groups G1,G2,GT oforderqtogetherwithabilinear function e : G1 × G2 → GT . Statements related to pairing-based cryptographic schemes are naturally expressed as the satisfiability of equations over these groups and Zq. The Groth-Sahai proof system, introduced by Groth and Sahai at Eurocrypt 2008, provides NIZK proofs for the satisfiability of equations over bilinear groups and over the integers modulo a prime q. Although Groth-Sahai proofs are quite efficient, they easily get expensive unless the statement is very simple. Specifically, proving satisfiability of m equations in n variables requires sending as commitments to the solutions Θ(n) elements of a bilinear group, and a proof that they satisfy the equations, which we simply call the proof, requiring additional Θ(m) group elements. In this thesis we study how to construct aggregated proofs i.e. proofs of size independent of the number of equations for different types of equations and how to use them to build more efficient cryptographic schemes. We show that linear equations admit aggregated proofs of size Θ(1). We then study the case of quadratic integer equations, more concretely the equation b(b − 1) = 0 which is the most useful type of quadratic integer equation, and construct an aggregated proof of size Θ(1). We use these results to build more efficient threshold Groth-Sahai proofs and more efficient ring signatures. We also study a natural generalization of quadratic equations which we call set-membership proofs i.e. show that a variable belongs to some set. We first construct an aggregated proof of size Θ(t), where t is the set size, and of size Θ(logt) if the set is of the form [0,t − 1] ⊂ Zq. Then, we further improve the size of our set-membership proofs and construct aggregated proofs of size Θ(log t). We note that some cryptographic schemes can be naturally constructed as set-membership proofs, specifically we study the case of proofs of correctness of a shuffle and range proofs. Starting from set-membership proofs as a common building block, we build the shortest proofs for both proof systems. / Este trabajo ha sido parcialmente financiado por CONICYT, CONICYT-PCHA/Doctorado Nacional/2013-21130937

Page generated in 0.1228 seconds