Spelling suggestions: "subject:"datos"" "subject:"ratos""
61 |
Identificación de necesidades de entrenamiento en operadores de camiones, utilizando análisis estadísticoRebolledo Campos, Jaime José January 2016 (has links)
Magíster en Gestión y Dirección de Empresas / En la gran minería del cobre de cielo abierto, el desempeño de la flota de camiones es determinante en la rentabilidad de la operación. El transporte de mineral desde la mina hasta la planta es un proceso comandado mayormente por personas. Estas personas, arriba de grandes camiones mineros, deben enfrentar todo tipo de distracciones, peligros, y además, deben desarrollar su actividad en condiciones ambientales adversas. Es el desempeño de estos operadores la que condiciona la productividad de la mina, y son por supuesto sus conductas las que afectan la seguridad de personas y la integridad de los equipos.
Esta tesis se hace cargo de diseñar una metodología analítica para identificar a los operadores de camión que tienen brechas en su desempeño, ofreciendo con esto un instrumento de gestión que permite enfrentar de manera focalizada los recursos de entrenamiento, y disminuyendo las mermas de productividad.
Gracias al uso y procesamiento de grandes cantidad de datos, provenientes de tanto del sistema de signos vitales de los camiones mineros, como del sistema de despacho de la flota, es posible reconocer las pérdidas de eficiencia de la flota, y la contribución que tienen los operadores de camión a estas pérdidas.
Se presenta además un diagrama de visualización de velocidades georreferenciadas que permite reconocer condiciones en las rutas con brechas de velocidad, producto de interferencias, o deficiente gestión de caminos.
En este trabajo se presentan propuestas de reportes analíticos que demandan un esfuerzo no menor de integración datos, y de crear estructuras de gestión que utilicen esta nueva información. Estos nuevos reportes, que permitirán cuantificar algunas de las más grandes pérdidas de eficiencia de la flota - imputables a la conducta de los operadores - son el producto de una iniciativa de la superintendencia de mina, la cual se espera se implemente durante el año 2016. / 19/11/2019
|
62 |
Sistema de automatización de informes de levantamiento de floraMoreno Palma, Edward Johans January 2018 (has links)
Ingeniero Civil en Computación / Hoy en día, la automatización de procesos manuales permite en las empresas logran optimizar su tiempo para poder utilizarlo en otros recursos. A continuación se presenta la finalización de la construcción de un sistema capaz de dar apoyo en este sentido a la parte medioambiental de una empresa, específicamente en todos los procesos que son necesarios realizar para un correcto levantamiento de información de flora.
Chile posee una amplia variedad de especies de flora registradas hasta la fecha, conocer todos sus nombres y modificaciones de los mismos es prácticamente imposible además de recordar cuales de ellas están en categoría de conservación, lo que es de vital importancia para un informe de flora. Para poder suplir esto, los especialistas llevan consigo libros con información de las especies existentes a terreno junto con un dispositivo GPS para ubicarse y un cuaderno para tomar notas de las especies observadas. Luego del proceso de toma de datos, los expertos deben generar listados con todas las especies vistas y verificar una por una cuales están en alguna categoría de conservación para agregar los datos correspondientes, además de comprobar que el nombre que se tiene de la especie es el último aceptado hasta la fecha del informe a entregar. Mientras tanto, por otro lado se tiene a una persona que está constantemente consultando por los avances llevados a cabo en cortos periodos de tiempo.
Para solucionar lo anterior, se creó una herramienta computacional que permite la actualización de las especies de flora, almacenamiento de información de observaciones y generación de informes florísticos de manera automática por mencionar algunas funcionalidades que ayudan a los cuatro tipos de usuario: Administrador, Coordinador, Colector y Fiscalizador.
Esta memoria describe el desarrollo de esta herramienta, la cual consiste en una aplicación móvil para Android junto con un sistema web de administración de datos. En este sistema se incorporaron dos extractores de información o crawlers que mensualmente recolectan los datos de la especies de flora presentes en Chile y también extraen la información correspondiente a todas las especies que están en alguna categoría de conservación vigente en el país. Junto con esto, se crearon interfaces en la aplicación móvil que son capaces de mostrar al usuario un mapa con los lugares donde debe realizar sus tomas de datos y actualizar el listado de especies a la última versión disponible. Además también se creó una vista web para que las personas que quieran estar al tanto del avance puedan hacerlo ingresando simplemente al sistema y, por último, se terminó la construcción de otra interfaz en la cual es posible descargar los informes finales que son necesarios para un correcto levantamiento de flora.
El nuevo sistema brinda un ahorro de trabajo de gabinete que llega a los tres días según la empresa, permite la generación de informes automática con datos más completos de las especies y un cliente que puede supervisar el avance de sus proyectos en tiempo real.
|
63 |
Administración de una base de datos replicada: implementación de un protocolo de cometido en un problema realLamberti, Ricardo Javier January 2006 (has links)
Sumario:
1- Introducción a las bases de datos distribuidas
2- Replicación
3- Sincronización
4- Manejo de réplicas coordinadas
5- Presentación de un problema real
6- Implementación de una solución
7- Conclusiones
|
64 |
Consultas en aplicaciones hipermedialesDvoskin, Marcos January 1996 (has links)
No description available.
|
65 |
Técnicas de inferencias, predicción y minería de datosApolaya Torres, Carlos Humberto, Espinosa Diaz, Adolfo 23 August 2018 (has links)
En el primer capítulo, se describe la problemática que se quiere solucionar y se detalla los objetivos específicos que aportan al cumplimiento del objetivo general y el alcance del proyecto.
En el segundo capítulo, se definen los conceptos básicos más importantes como Data Mining y Machine Learning, los cuales están relacionados al tema de estudio de la investigación.
En el tercer capítulo, se encuentra el Estado del Arte, en el cual se revisará la investigación previa relacionada al proyecto indicando el rubro en el que fue implementado. Esto permite entender cómo se encuentra el tema investigado en la actualidad y tener una visión más clara de lo que se puede desarrollar.
En el cuarto capítulo, se describe el desarrollo del proyecto, la metodología a utilizar, se detalla las fases de dicha metodología y el proceso a seguir para la correcta implementación del modelo utilizando arboles de decisión y la metodología Knowledge Discovery in Databases (KDD).
En el quinto capítulo se detalla cómo se obtuvo un porcentaje de error de predicción de aproximadamente 9.13%, las pruebas realizadas y recomendaciones. Así como también las propuestas de continuidad del proyecto enfocados en la mejora del modelo de predicción.
Finalmente, en el sexto capítulo se describen los resultados finales en la gestión propia del proyecto, en los aspectos de Resultado Final y las Gestiones de alcance, tiempo, comunicación, recursos humanos y riesgos. / In the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project.
In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study.
In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed.
In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology.
The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model.
Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management. / Tesis
|
66 |
Efficient non-interactive zero-knowledge ProofsGonzález Ulloa, Alonso Emilio January 2017 (has links)
Doctor en Ciencias, Mención Computación / Non-Interactive Zero-Knowledge (NIZK) proofs, are proofs that yield nothing beyond their validity. As opposed to the interactive variant, NIZK proofs consist of only one message and are more suited for high-latency scenarios and for building inherently non- interactive schemes, like signatures or encryption.
With the advent of pairing-based cryptography many cryptosystems have been built using bilinear groups, that is, three abelian groups G1,G2,GT oforderqtogetherwithabilinear function e : G1 × G2 → GT . Statements related to pairing-based cryptographic schemes are naturally expressed as the satisfiability of equations over these groups and Zq.
The Groth-Sahai proof system, introduced by Groth and Sahai at Eurocrypt 2008, provides NIZK proofs for the satisfiability of equations over bilinear groups and over the integers modulo a prime q. Although Groth-Sahai proofs are quite efficient, they easily get expensive unless the statement is very simple. Specifically, proving satisfiability of m equations in n variables requires sending as commitments to the solutions Θ(n) elements of a bilinear group, and a proof that they satisfy the equations, which we simply call the proof, requiring additional Θ(m) group elements.
In this thesis we study how to construct aggregated proofs i.e. proofs of size independent of the number of equations for different types of equations and how to use them to build more efficient cryptographic schemes.
We show that linear equations admit aggregated proofs of size Θ(1). We then study the case of quadratic integer equations, more concretely the equation b(b − 1) = 0 which is the most useful type of quadratic integer equation, and construct an aggregated proof of size Θ(1). We use these results to build more efficient threshold Groth-Sahai proofs and more efficient ring signatures.
We also study a natural generalization of quadratic equations which we call set-membership proofs i.e. show that a variable belongs to some set. We first construct an aggregated proof of size Θ(t), where t is the set size, and of size Θ(logt) if the set is of the form [0,t − 1] ⊂ Zq. Then, we further improve the size of our set-membership proofs and construct aggregated proofs of size Θ(log t). We note that some cryptographic schemes can be naturally constructed as set-membership proofs, specifically we study the case of proofs of correctness of a shuffle and range proofs. Starting from set-membership proofs as a common building block, we build the shortest proofs for both proof systems. / Este trabajo ha sido parcialmente financiado por CONICYT, CONICYT-PCHA/Doctorado Nacional/2013-21130937
|
67 |
New complexity bounds for evaluating CRPQs with path comparisonsMuñoz Fuentes, Pablo Benito January 2014 (has links)
Ingeniero Civil Matemático / En muchos problemas que surgen en el contexto de consultar información en bases de datos estructuradas sobre grafos (como encontrar asociaciones semanticas en grafos RDF, encontrar emparejamientos exactos o aproximados the patrones de texto, realizar alineación de secuencias de texto, etc.) es un requerimiento común el buscar entidades unidas por secuencias de etiquetas relacionales de acuerdo a un patrón regular. Para este propósito, el lenguaje de consulta $\CRPQ(\S)$ ha sido propuesto para extender la altamente estudiada clase de consultas conjuntivas por caminos regulares (CRPQs por su sigla en inglés), la cual es insuficiente para esta tarea, realizando comparación de caminos con relaciones en la clase $\S$.\\
Poco es conocido acerca de la complejidad computacional precisa de la evaluación de consultas en $\CRPQ(\S)$ cuando $\S$ es una relación de interés por aparecer naturalmente en aplicaciones en bases de datos, como lo son \emph{subsecuencia} ($\ss$), \emph{sufijo} $(\suff)$ y \emph{subpalabra} ($\sw$). Esta pregunta es consecuentemente estudiada en esta tesis, proporcionando nuevas cotas de complejidad para la evaluación de consultas en los lenguajes $\CRPQ(\ss)$, $\CRPQ(\suff)$ y $\CRPQ(\sw)$. Se muestra que el primer lenguaje es dificil de ser practicable, construyendo una consulta en él cuya complejidad de evaluación es $\NP$-completo. Se muestra también que la evaluación de consultas en los últimos dos lenguajes puede realizarse en $\PSPACE$, mediante la reducción del problema a \emph{ecuaciones de palabras con restricciones regulares}. Adicionalmente, se muestra que la classe $\CRPQ(\suff)$ es práctica, construyendo un algoritmo de evaluación cuya complejidad, cuando la consulta es considerada una constante, está en $\NLOGSPACE$ , la cuál es una complejidad de evaluación estandar en este contexto.\\
Esta tesis plantea además interesantes preguntas teóricas sobre ecuaciones de palabras con restricciones regulares. Más precisamente, cuál es la complejidad de resolver ecuaciones fijas con restricciones como entrada, la cual es una pregunta abierta en la literatura al leal saber y entendimiento del autor. Un resultado es establecido para el caso más simple, mostrando una clase de ecuaciones cuya satisfacibilidad con restricciones regulares puede ser decidida en $\NLOGSPACE$.
|
68 |
Índices comprimidos para la recuperación de documentosFerrada Escobar, Héctor Ricardo January 2016 (has links)
Doctor en Ciencias, Mención Computación / Document Retrieval (DR) aims at efficiently retrieving the documents from a collection that
are relevant to user queries. A challenging variant arises when the documents are arbitrary
strings and the collection is large. This scenario arises in DNA or protein sequence collections,
software repositories, multimedia sequences, East Asian languages, and others. Several DR
compressed data structures have been developed to face this challenge, offering different
space/time complexities. However, in practice the proposals with the best time performance
require too much extra space.
This thesis innovates in three aspects: (1) we build on Lempel-Ziv 1978 (LZ78) compres-
sion, instead of suffix arrays, to build DR indices; (2) we build on Lempel-Ziv 1977 (LZ77)
compression to handle highly repetitive collections; (3) we start the study of approximate
answers in this DR scenario, which is common in DR on natural language texts.
In this aspect, our main contribution is a new approach to DR based on LZ78 data
compression, offering structures to solve the two most fundamental problems in the DR
field: Document Listing (DL) and Top-k Retrieval. Our novel indices offer a competitive
space/time tradeoff for both situations. Besides, our proposals are also capable of retrieving
approximate answers, saving a lot of space and/or time compared with any structure that
returns the full answer for any of these problems.
Our second main contribution is the design of a structure for indexing highly repetitive
text collections that solves the DL problem, which is built on the LZ77 parsing. This is
the first attempt to solve DR problems using LZ77 data compression, which is the best
compression scheme for such collections.
On the other hand, we improve on basic data structures used, among others, in DR.
We present an alternative design to the best theoretical Range Minimum Queries solution,
maintaining its good complexities in space usage and query time. We obtain a simpler formula
that leads to the fastest and most compact practical implementation to date.
We also implemented various promising theoretical proposals for compressed suffix ar-
rays, for which no previous implementations existed. Finally, we design and implement a
compressed text index for highly repetitive collections that solves pattern matching, which
is based on the LZ77 compression, and which is the basis for our LZ77-based DR index. / Document Retrieval (DR) apunta a la recuperación eficiente de documentos relevantes de una colección, para las consultas del usuario. Una variante que surge como desafío es cuando los documentos provienen de una gran colección de textos arbitrarios. Este escenario ocurre con colecciones de secuencias de ADN o proteínas, repositorios de software, secuencias multimedia e idiomas del Lejano Oriente, entre otros entornos. Varias estructuras de datos comprimidas para DR han sido desarrolladas a fin de hacer frente a este desafío, ofreciendo diferentes complejidades en tiempo/espacio. Sin embargo, en la práctica las propuestas con el mejor rendimiento en tiempo, requieren a su vez de demasiado espacio extra.
Esta tesis innova tres aspectos: (1) construímos índices para DR en base a la compresión Lempel-Ziv 1978 (LZ78) en lugar de arreglos de sufíjos; (2) manipulamos colecciones altamente repetitivas en base a la compresión Lempel-Ziv 1977 (LZ77); (3) comenzamos a estudiar cómo entregar respuestas aproximadas en dicho escenario de DR, lo cual es una práctica común en textos de lenguaje natural.
Nuestra principal contribución es un nuevo enfoque para DR basado en la compresión de datos LZ78, ofreciendo estructuras que resuelven los dos problemas fundamentales del campo de DR: Document Listing (DL) y Top-k Retrieval. Nuestros nuevos índices ofrecen desempeño competitivo en tiempo/espacio en ambos casos. Además nuestras propuestas también entregan respuestas aproximadas, ahorrando considerable espacio y/o tiempo comparado con cualquier otra estructura que entregue una respuesta completa a alguno de estos problemas.
También diseñamos una estructura que indexa colecciones de texto altamente repetitivo y resuelve el problema de DL, basada en la compresión LZ77. Este el primer intento dirigido a resolver un problema de DR utilizando compresión de datos LZ77, que además es el mejor esquema de compresión para dichas colecciones.
Por otro lado, realizamos mejoras sobre estructuras de datos básicas utilizadas en DR. Presentamos un diseño alternativo a la mejor solución teórica para Range Minimum Queries, manteniendo sus buenas complejidades en términos de espacio utilizado y tiempo de consulta. Logramos una fórmula más sencilla obteniendo como resultado la implementación más rápida y compacta conocida hasta hoy.
Además implementamos varias propuestas teóricas promisorias para el arreglo de sufijos, de las cuales no existen implementaciones previas. Finalmente, diseñamos e implementamos un índice de texto comprimido para colecciones altamente repetitivas que resuelve el pattern matching, el cual se basa en la compresión LZ77, y que además es la base para nuestro índice sobre el LZ77 para DR. / This work has been partially funded by Conicyt Ph.D Scholarship Chile; Fondecyt Grant 1-140976; Millennium Nucleus for Information and Coordination in Networks, and Basal Center for Biotechnology and Bioengineering
|
69 |
Elaboración de una medida tecnológica que permita garantizar y proteger el adecuado tratamiento de los datos personales en el Internet de próxima generaciónCañihua Florez, Rubén January 2007 (has links)
Tesis (magíster en derecho de la informática y de las telecomunicaciones) / La extraordinaria celeridad con la cual las sofisticadas tecnologías de información vienen desdibujando el nuevo curso vital de nuestra era digital, hacen que sea necesario tomar la debida importancia del impacto que estas contraen con respecto a las ciencias reactivas del derecho, entendida esta, desde el ámbito de las posibles invasiones que se presentan en la privacidad y la vulneración de nuestros datos personales en el Internet, ya que enfrenta, un papel clave dentro de un escenario de regulación cual es, la búsqueda de determinar las soluciones mas competentes ante estos avances tecnológicos según la construcción de adecuadas condiciones de legalidad que le serán impuestas y que a su vez se encuentre vinculado a un tratamiento de la información ajustado a la mejora del desarrollo de los sistemas jurídicos, que sean potencialmente eficaces y dinámicos en la interpretación y su propia aplicación en la Legislación Chilena, acorde a los tiempos en que vivimos. Pues por tal circunstancia, en esta ocasión, me delimitare a exhibir específicamente el análisis de las principales implicaciones que conllevan en materia de la protección de datos personales y la privacidad con referencia al protocolo de Internet de próxima generación.
|
70 |
Uso de la ingeniería de negocios en diseño e implementación de negocio para Start up basada en Web Opinion MiningPonce de León Pollman, Francisco José January 2015 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Ingeniero Civil Industrial / Opinion Zoom es un proyecto INNOVA del Web Intelligence Consortium Chile Research Centre del Departamento de Ingeniería Civil Industrial de la Universidad de Chile. El proyecto se basa en el desarrollo de algoritmos para el análisis de opiniones, sentimientos y polaridades de comentarios a partir de los datos depositados por los usuarios en las redes sociales, blogs y páginas a fines, en el marco del desarrollo explosivo que ha tenido la Web 2.0 en la última década.
El trabajo de tesis se basa en la definición, desarrollo e implementación de un modelo de negocios que utilice los conocimientos generados por la investigación del proyecto. En particular, se busca mejorar la comunicación entre las organizaciones proveedoras de productos y servicios con los consumidores, caracterizando las preferencias de estos últimos y permitiéndoles a las empresas u organizaciones incorporar modificaciones en sus productos o generar otros nuevos de acuerdo a las opiniones de clientes potenciales y actuales. El beneficio puede alcanzar desde empresas privadas hasta instituciones públicas.
La metodología empleada es la correspondiente a la Ingeniería de Negocios , adoptando el Modelo Lean Canvas en lo referente a la creación del Modelo de Negocio.
En otras palabras, la lógica del trabajo de tesis consistió en extraer, mediante la metodología Lean Canvas, conocimiento del mercado que luego decantó en reglas semánticas de negocios, las que tradujeron en el diseño completo de cuatro servicios: Inteligencia de Clientes, Trending Alert, Impacto de Campañas y Automatización de reportes, incluyendo el desarrollo de un prototipo de aplicación web funcional el cual se utilizó como parte del MVP para validar los servicios.
Posteriormente se diseñó la arquitectura de procesos necesaria para implementar el negocio propuesto, haciendo uso extensivo de los macro-procesos cadena de valor y planificación estratégica.
Por otro lado se evaluó el potencial del negocio mediante cuantificación del mercado objetivo y análisis económico, el cual permitió definir al Spin-off , con un VAN de $28.179.728 para la Universidad en un horizonte de 2 años, como mejor alternativa de funcionamiento para la implementación del negocio desde un punto de vista de aversión al riesgo.
Finalmente se realizó una prueba de concepto en la cual se validó con éxito la idea de negocio diseñada bajo tres dimensiones distintas: concepto, solución y modalidad de cobro, generándose recomendaciones para la próxima iteración del negocio.
|
Page generated in 0.049 seconds