Spelling suggestions: "subject:"procesamiento electrónica dde datos."" "subject:"procesamiento electrónica dee datos.""
11 |
Diseño e implementación de un algoritmo de pre-procesamiento de datos sísmicos en túneles utilizando fuentes sísmicas controladasPeña Álvarez, Gerardo Andrés January 2017 (has links)
Ingeniero Civil Eléctrico / Las crecientes necesidades energéticas, de conectividad y de extracción de minerales, además del aumento de las exigencias medioambientales hacen del uso de túneles una buena alternativa al momento de desarrollar un proyecto. Construir túneles no es una tarea fácil, el riesgo que conlleva el excavar en roca y mantener la estructura sin que se colapse por el peso del sitio, requiere de estudios acabados de la geología del lugar antes y durante la construcción del túnel. Es en estos estudios donde se utilizan sondajes junto con las técnicas de prospección sísmica.
En este trabajo de título se estudió un método de prospección sísmica el cual utiliza cargas explosivas como fuentes sísmicas controladas y acelerómetros para registrar las ondas reflejadas por estructuras geológicas que se encuentran más adelante de la cara del túnel, método probado y utilizado por una empresa privada, la cual no entrega información a fondo del funcionamiento del sistema por motivos comerciales.
Durante el estudio del método, se generó un algoritmo de pre-procesamiento de trazas sísmicas obtenidas en túneles que hace filtrados secuenciales de las señales y las prepara para aplicarles tomografía y estimar las estructuras geológicas en la sección del túnel que no ha sido excavada.
El algoritmo de pre-procesamiento generado se aplicó a dos conjuntos de datos sísmicos obtenidos en un túnel, en dos niveles de avance consecutivos. Los resultados obtenidos se compararon con un software comercial obteniéndose en la mayoría de los pasos aplicados resultados similares o mejores al software comercial, lo cual indica que el estudio realizado puede ser utilizado para desarrollar un nuevo producto, que entregue de manera confiable y segura, la información que los profesionales necesitan durante la construcción de túneles modernos.
Finalmente, se deja a libre disposición de la comunidad docente y estudiantil el algoritmo diseñado, el cual da un primer paso en estudio del área de procesamiento de señales sísmicas en túneles y se motiva a la comunidad a continuar y perfeccionar el trabajo realizado, con el objetivo futuro de diseñar el hardware y software necesario para realizar las mediciones en terreno y representar los resultados de manera clara y transparente al operador.
|
12 |
Inversión del tensor de momento sísmico y función fuente temporal de terremotos utilizando registros de campo cercanoMorales Yáñez, Catalina Patricia January 2016 (has links)
Magíster en Ciencias, Mención Geofísica / Obtener parámetros de la fuente sísmica a partir de datos sismológicos y/o geodésicos es de suma importancia en la caracterización de la fuente de terremotos, lo cual cobra especial relevancia en sistemas de monitoreo sísmico en tiempo real. Existen modelos y metodologías que permiten realizar estas inferencias asumiendo distintos niveles de complejidad en el modelo de la fuente sísmica. Sin embargo, la inversión simultánea del tensor de momento y función fuente temporal utilizando datos regionales y de campo cercano de terremotos es un tema poco estudiado. El obje- tivo principal de este trabajo es invertir la función fuente temporal y el tensor de momento sísmico utilizando datos sismológicos de campo cercano y regional. Para ello se planteó una metodología y se desarrolló una herramienta computacional propia, la cual se usó para estudiar parámetros de la fuente de sismos magnitud Mw > 6.0 ocurridos en la zona Norte de Chile.
El código computacional se escribió en lenguaje de programación Python, el cual permite in- vertir el tensor de momento sísmico y la función fuente temporal usando registros de campo cer- cano. Para calcular las funciones de Green del medio se utilizaron los programas computacionales Computer Programs in Seismology (CPS). El programa de inversión lee las funciones de Green precalculadas y minimiza el error de ajuste entre los sismogramas sintéticos y observados usando el método de mínimos cuadrados para estimar las componentes del tensor de momento. La función fuente se parametrizó como la suma de funciones bases, donde las amplitudes de éstas son las in- cógnitas del problema. Para estimar la función fuente se aplicó la técnica de mínimos cuadrados no negativo con un término adicional de regularización que impone una condición de suavidad sobre la función fuente. El código realiza la búsqueda del mejor centroide espacial para el ajuste de los datos, para ello itera primero en latitud y longitud, fijando la profundidad, y una vez obtenidas las coordenadas óptimas realiza una segunda iteración esta vez en profundidad.
La metodología se aplicó a eventos de la secuencia sísmica del terremoto de Pisagua del 2014, Mw 8.1, y a un evento ocurrido el 2011 a 130 km de profundidad en la zona de estudio. El análisis de las soluciones obtenidas de los eventos estudiados muestra que los resultados son confiables y robustos al compararlos con soluciones publicadas por agencias sismológicas, pudiéndose incluso obtener relaciones entre la función fuente y las características del evento tales como su magnitud o profundidad (superficial, en la zona de contacto o profundo). El método de inversión si bien posee algunas limitaciones que pueden ser mejoradas, logra recuperar el tensor de momento y la función fuente en forma robusta. Las diferencias observadas con otras soluciones se encuentran en el rango de error y se observa que la función fuente depende de la zona sismogénica en donde ocurre.
|
13 |
Análisis y modelos de datos de redes para seguridad informáticaChávez Barbaste, Joaquín Gonzalo January 2016 (has links)
Ingeniero Civil Eléctrico / Hoy en día son cientos los servicios que se ofrecen de manera virtual a través de Internet, muchas veces exigiendo la transferencia y almacenamiento de datos prioritarios o sensibles a través de las redes de comunicaciones. Esto obliga a que los factores de seguridad, estabilidad y confiabilidad de las plataformas sea un elemento clave a considerar en el desarrollo de las aplicaciones y, por lo tanto, la utilización de herramientas dedicadas a la prevención y detección de fallas de seguridad toma un rol crítico.
Considerando lo anterior, este trabajo propone diseñar e implementar un ambiente de simulación de redes que permita explorar la aplicación de distintas técnicas de inteligencia computacional en tópicos de seguridad informática, enfocándose principalmente en la utilización de modelos autoregresivos integrales de media móvil (conocidos como ARIMA por su sigla en inglés) y la divergencia de Kullback-Leibler para la detección de ataques de denegación de servicio a un servidor web. Para esto se desarrolla una arquitectura representativa de un proveedor de servicios de Internet utilizando como plataforma el programa de simulación de redes conocido como GNS3 (Graphical Network Simulator 3), en donde se tienen tres routers, un simulador de clientes, una máquina atacante, un servidor web y una máquina dedicada a la recolección y análisis de datos, todos funcionando como máquinas virtuales dentro de un mismo computador principal. Utilizando este ambiente se ejecutan múltiples simulaciones de tráfico web para condiciones normales de operación y bajo ataque de denegación de servicio, obteniéndose series de tiempo de alrededor de doce horas de duración para capturar el comportamiento a nivel IP del tráfico durante períodos de volumen de usuarios con carga baja, media y alta. De esta manera se logra recolectar suficientes datos para poder realizar el análisis estadístico respectivo y la generación de modelos de predicción de tráfico y detección de ataques con la ayuda del lenguaje para análisis estadístico R.
A partir de los resultados obtenidos se verifica la factibilidad de utilizar modelos ARIMA para la predicción del tráfico que fluye a través de los routers que conforman las vías troncales de la red y como herramienta complementaria de detección de cambios bruscos en el nivel de tráfico de subida a un servidor web. Además, se obtienen resultados exitosos para la utilización de la divergencia de Kullback-Leibler como mecanismo de detección de ataques de denegación de servicio, en base a los cambios bruscos de tráfico, permitiendo la detección dentro de los primeros cinco minutos de comenzada la falla. Este tipo de herramientas permitirían a los proveedores implementar sistemas inteligentes para la detección temprana de ataques de denegación de servicio dentro de su red, pudiendo aplicar maniobras de mitigación a tiempo y, por lo tanto, fortaleciendo la seguridad del sistema en su totalidad.
|
14 |
Caracterización de exoplanetas mediante técnicas de procesamiento de señales y método de las velocidades radialesMahú Sinclair, Rodrigo Manuel January 2016 (has links)
Ingeniero Civil Electricista / El método de las velocidades radiales permite la detección de planetas en otros
sistemas solares, al obtener las características y configuración del sistema planetario.
Esto es usualmente realizado por métodos secuenciales, que no garantizan obtener una
solución global del problema. Una distorsión en la primera señal detectada, en conjunto
con la ventana de muestreo no uniforme pueden causar la aparición de componentes
artificiales.
En este trabajo se desarrolló un método para encontrar una solución global del
problema. Determinando tanto el número de componentes como las características de
estas.
Para esto se implementó dos programas en C, que en conjunto permitirán determinar
las características y configuración de sistema. Estos se evalúan tanto en la validez de los
resultados que entregan, como de la eficiencia computacional de los mismos.
Para la validación se utilizó señales reales proporcionadas por astrónomos y señales
artificiales.
Se muestra como el periodograma basado en MMSE entrega resultados comparables
con los del periodograma Lomb Scargle. Entregando además los parámetros de las
componentes detectadas.
Se utilizó un análisis de grilla para detectar la configuración del sistema y refinar las
soluciones.
|
15 |
Gestión integral de productividades para el Departamento de Ciencias de la ComputaciónToledo Acuña, Luis Esteban January 2015 (has links)
Magíster en Tecnologías de la Información / El Departamento de Ciencias de la Computación de la Universidad de Chile (DCC) cuenta con un programa de monitoreo de las actividades de todos sus funcionarios y académicos, con el cual se define las asignaciones económicas (productividades) de la gente que compone el Departamento. El programa de productividades actualmente funciona mediante un proceso artesanal, basado en transferencias de datos a través de emails y comunicaciones cara-a-cara. El procesamiento de estos datos también se realiza de forma manual (usando planillas Excel), pues no existe un sistema de software capaz de apoyar la gestión completa de dicho programa. Debido a la poca automatización de la solución actual, el proceso se vuelve susceptible a errores y poco visible para la mayoría de los involucrados.
Por otra parte, las limitaciones de esta solución hacen difícil la extracción de estadísticas precisas, que permitan apoyar la toma de decisiones en este ámbito. Además, el costo de informar a los funcionarios y académicos acerca de sus productividades del mes en curso, o acerca de su historial de productividad, se vuelve sumamente alto. En resumen, el programa de productividades es actualmente un mecanismo susceptible a errores, y poco visible y accesible para la mayoría de los miembros del DCC.
El propósito de este trabajo de tesis es diseñar e implementar una solución de software que le permita a este programa: (1) ser fácilmente accesible y visible para todos los involucrados; (2) realizar un manejo seguro y preciso de la información de productividades; (3) manejar la generación y entrega de información en forma online en base a perfiles de usuarios; y (4) generar estadísticas que permitan apoyar la toma de decisiones de las autoridades del DCC. De esa manera, se buscará mejorar parte de la gestión interna del Departamento, volviéndolo más robusto y transparente en un ámbito que es sumamente sensible para la gente.
|
16 |
Diseño de propuesta de arquitectura de gestión de datos científicos para el Centro de Investigación Web Intelligence CentreMaldonado Bravo, Felipe Alejandro January 2016 (has links)
Ingeniero Civil Industrial / El presente trabajo de título busca diseñar una propuesta de arquitectura de gestión de datos de investigación enfocada en el acceso abierto a los datos para el Web Intelligence Centre (WIC, centro perteneciente a la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile), con el fin de prevenir la falta de disponibilidad de datos generados en el centro para trabajos futuros y así evitar el tener que llevar a cabo los experimentos por segunda vez.
El primer pilar de la arquitectura son las políticas de gestión de datos científicos. Para su diseño se utilizó una serie de pasos ofrecida por el Data Curation Centre (UK). El primer paso fue realizar una evaluación del estado actual del WIC respecto a la gestión de datos, posterior a ello se efectuó una revisión y comparación de las recomendaciones sobre los contenidos de las políticas de un número de entidades que ha desarrollado la materia en los últimos años. De este ejercicio se extrajeron los contenidos mínimos que debe contener este documento. A continuación, se analizó quiénes serán los encargados de aprobar la propuesta para poder realizar una versión borrador del documento sujeto a cambios, los cuales se vieron reflejados en el diseño de la versión final.
El segundo pilar de la arquitectura es la infraestructura tecnológica (TI) que soportará la gestión de los datos. Para esto se realizó un levantamiento de requerimientos con el fin de realizar un benchmark de los repositorios y software especializados en la creación de repositorios científicos existentes. De esta fase se consideró a la plataforma DSpace como la mejor solución para diseñar y crear finalmente la propuesta de repositorio de datos del centro.
El tercer y último pilar tiene relación al soporte necesario para realizar la gestión de datos en el centro, para esto se diseñaron guías, documentos y plantillas de documentos. Además se esquematizaron los procesos principales que se desprenden de las políticas diseñadas.
Después se llevó a cabo un proceso de validación de la arquitectura creada respecto a los términos técnicos y requisitos para poder ejecutar la gestión buscada. Donde se concluye que la propuesta permitirá realizar una gestión de datos científicos en el Web Intelligence Centre y con esto traer beneficios, que a pesar de no ser directamente cuantificables en contraste a los costos, se verán reflejados en el corto y largo plazo tanto en el funcionamiento interno del centro como en la investigación que se realizará en el futuro, los cuales ayudarán a cumplir los objetivos del centro. También se presentaron propuestas de mejoras a la arquitectura desprendidas de la validación realizada.
Por último, se realizó una propuesta relacionada a la gestión del cambio que se deberá llevar a cabo en el centro con el fin de implementar la arquitectura propuesta de manera correcta para poder generar finalmente el valor que se busca.
|
17 |
Improving the efficiency and reliability of gradual typingAllende Prieto, Esteban Armando January 2015 (has links)
Doctor en Ciencias, Mención Computación / Gradual Typing permite a un programador aplicar tipos estáticos a ciertas partes de un programa, dejando el resto dinámicamente tipeado. Sin embargo, esto viene con un costo en el rendimiento. Una razón es que el runtime tiene que realizar siempre un casteo en el borde entre tipos estáticos y dinámicos. Otra razón es que el borde puede ser creado accidentalmente. Esto también trae un efecto lateral de reducir la fiabilidad del código estático, porque ahora el programador no puede garantizar que su código no arrojará errores de tipo en tiempo de ejecución.
En este trabajo de tesis, mejoramos el rendimiento y la fiabilidad de los programas gradualmente tipeados. Para esto, desarrollamos un lenguaje gradualmente tipeado, Gradualtalk, y luego presentamos dos novedosas ideas: hybrid strategy y Confined Gradual Typing.
La hybrid strategy es una nueva forma de insertar los casts al invocar métodos que combina dos estrategias existentes, permitiendo obtener el mejor rendimiento de ambas. Validamos esta afirmación con benchmarks.
Confined Gradual Typing refina gradual typing con anotaciones para prohibir explícitamente ciertos cruces de frontera entre el código estáticamente y dinámicamente tipeado. Nosotros desarrollamos formalmente dos variantes de CGT que capturan diferentes compromisos entre flexibilidad/garantías. Probamos que CGT es type sound y que las anotaciones ofrecen las garantías esperadas.
|
18 |
Diseño e implementación de un sistema de monitoreo de parámetros físicos y eléctricos de grupos electrógenos / Franco Mario Rabínes LaraRabínes Lara, Franco Mario 09 May 2011 (has links)
El tema del estudio se enfoca en el monitoreo de las señales eléctricas como lo son la potencia, el voltaje y la corriente así como los parámetros físicos de temperatura, presión de aceite entre otros, por medio de microcontroladores y circuitos integrados de bajo costo. Se ha planteado una solución con dos módulos del tipo Maestro-Esclavo. El módulo esclavo va conectado directamente al grupo electrógeno, mientras que el módulo maestro se encuentra en un tablero remoto conectado al módulo esclavo por medio de un bus RS-485. / Tesis
|
19 |
Implementación de nuevos algoritmos de las listas estáticas basado en las propiedades de los algoritmos genéticos, que demuestre que las listas estáticas son más eficientes en tiempo de gestión de datos que las listas dinámicasChira Huamán, Hernán Elías January 2019 (has links)
Aplica la implementación de las operaciones de listas dinámicas en base a registros denominados listas estáticas. A su vez, se demuestra que las operaciones en listas estáticas pueden ser semejantes o más eficientes en las inserciones o eliminaciones en tiempo que las listas dinámicas. Las listas dinámicas podrán ser más eficientes que los registros en la utilización y ahorro de espacio de memoria, pero aun así demanda más tiempo en almacenar los datos uno por uno al crear nuevos nodos, e inclusive puede haber problemas de interrupción del compilador en la gestión de datos. Las listas estáticas permiten una mayor eficiencia en gestión de menores cantidades de datos en comparación de las listas dinámicas. Finalmente, proponiendo la creación de algoritmos en el uso de inserción, eliminación, búsqueda, guardado y recuperado de datos de listas estáticas, se debe expandir su respectivo uso lógico y expandir sus características de implementación lógica de las demás estructuras de datos dinámicos, permitiendo múltiples aplicaciones en el rendimiento de control de tiempo y estabilidad del espacio de memoria en la gestión de datos. Todo esto constituye el aporte que se brinda al desarrollo de la programación y aplicaciones múltiples de la estructura de datos. / Tesis
|
20 |
Guía gerencial para la construcción de un Datamart electoral utilizando la metodología de Ralph KimballTenorio Gonzales, Candy Veronica January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Presenta una guía gerencial para la construcción de un Datamart mediante la metodología de Ralph Kimball, para la toma de decisiones que sea capaz de brindar información estadística relevante de manera fácil, oportuna y consolidada. Una de las características de una sociedad demócrata es su poder de elegibilidad, por lo que los procesos electorales ocupan un lugar importante en el espacio político y en los que administran dicha información. Finalizado el sufragio y la contabilización de actas, se generan indicadores que serán solicitados por los diversos órganos que conforman la Institución responsable de los procesos electorales así como las entidades veedoras. / Trabajo de suficiencia profesional
|
Page generated in 0.0993 seconds